Inicio > Acto de Apertura > Lección Inaugural

 Acto de Apertura

Lección Inaugural
Luis M.ª Laita de la Rica. Profesor de la Escuela Politécnica Superior

ALGUNAS CONSIDERACIONES ACERCA DE LA PREGUNTA: ¿LLEGARÁN A SER ALGÚN DÍA LAS MÁQUINAS MÁS INTELIGENTES QUE LOS SERES HUMANOS?

Excmo. Señor Presidente de la Fundación Universitaria San Pablo-CEU,
Excmo. Sr. Gran Canciller de la Universidad CEU San Pablo,
Excmo. Sr. Rector Magfco. de la Universidad CEU San Pablo,
Ilmo. Sr. Director de la Escuela Politécnica Superior,
Compañeros de Claustro,
Personal de Administración y Servicios,
Alumnos,
Señoras y Señores.

Luis Laita-Lección Inaugural

Tengo el honor de pertenecer al Claustro de Profesores de esta Universidad desde hace solamente un curso académico, después de muchos años en la Universidad Pública. Sin embargo siento dentro de mí, desde hace mucho tiempo, una relación afectiva muy profunda con la Institución CEU. En un período difícil por un serio quebranto de salud de mi hija, tuve la inspiración súbita de cambiarla de centro educativo, cuando ya había empezado el curso.

Me dirigí, todavía no sé bien por qué, al Colegio CEU de Claudio Coello. La tutora del curso, de quien sólo mencionaré su nombre, Maite, después de las pruebas correspondientes la admitió. Vi en ella, y en la tutora que tuvo después, Soledad, un auténtico deseo de ayudar a mi hija, ¡y vaya si lo consiguieron!. Mi hija sacó adelante el Bachillerato y el acceso a la Universidad, su carrera, y es ahora una profesional feliz en su trabajo y en su vida. Y eso, Señoras y Señores, se lo debo en buena parte, al CEU.

He empezado diciendo que llevo aquí sólo un año, por eso quiero sinceramente agradecer al Ilmo. Sr. Director de la Escuela Politécnica Superior, que me propusiera para impartir esta Lección Inaugural. Deseo compartir este honor con mis colegas de Departamento y de la Escuela, agradeciendo al Sr. Rector que haya sido este año la Escuela elegida para que uno de sus profesores, simplemente uno más entre ellos, dicte esa Lección.

1. Introducción

Me voy a permitir hacer en esta Lección Inaugural, algunas consideraciones sobre el difícil problema de describir los límites y los poderes de las máquinas y su comparación con los límites y los poderes de nuestra inteligencia. Estas consideraciones nos llevarán al planteamiento de la cuestión: ¿pueden las máquinas pensar?, si es así, ¿llegarán a ser algún día más inteligentes que los seres humanos.

La construcción de máquinas calculadoras viene de muy antiguo. Parece, por ejemplo, que los ábacos ya se usaban hace 7.000 años.

Blas Pascal (1623-1662) construyó, cuando sólo tenía diecinueve años, una calculadora. Por medio de unas ruedas dentadas, de forma que cada diente correspondía a un número, la Pascalina que así se llamaba la máquina, era capaz de sumar números de ocho cifras.

Leibniz diseñó, hacia 1680, una máquina para sumar, restar, multiplicar y dividir, pero no fue construida hasta un siglo más tarde. Nuestro Raimundo Lulio, filósofo mallorquín en la Edad Media, había ya diseñado una calculadora, al parecer para sacar conclusiones en lógica.

Es curioso pero estos y otros filósofos y matemáticos intentaron, a lo largo de la historia, reducir a cálculos nuestro razonamiento (Llull, Leibniz, quizás Boole) con el fin de poner de acuerdo a las personas en cuestiones de religión. Hoy día, en que la lógica parece que se ha convertido en un cálculo muy preciso, sigue habiendo los mismos desacuerdos en todo. Esto es posible que ocurra porque ese cálculo tan preciso falla en sus mismos orígenes, como luego diré al tratar de problemas “indecidibles”, o porque no hay cálculo posible que nos ponga de acuerdo a los humanos, no por la lógica, sino porque partimos de sólo aquellas presuposiciones que nos interesan a cada uno.

La máquina más importante ideada antes de la de Turing y de los ordenadores es la del matemático inglés Charles Babbage (1792-1871). Una máquina con 4000 piezas basada en sus ideas, se halla hoy en el museo de Ciencias de Londres.

En esta lección trataremos muy brevemente tres cuestiones:

  • Algunas de las ideas de los matemáticos Alan Turing y Kurt Gödel relativas a importantes problemas que ninguna máquina puede ni podrá resolver.
  • Algunas de las acciones típicamente humanas que las máquinas sí pueden emular: descubrir, hacer analogías, razonar, ¿tener intuiciones e inspiraciones?
  • Una respuesta parcial a la pregunta que aparece en el título de la lección: ¿llegarán a ser algún día las máquinas más inteligentes que los seres humanos?

2. Algo de lo que las máquinas NO pueden hacer

En esta parte, estudiamos brevemente a Turing y Gödel.

2.1. Alan Turing

Alan Mathison Turing nació en Londres en 1912. Fue un eminente matemático. Con un equipo de colaboradores descodificó, mediante una máquina, que llamaron “Bomb”, los códigos secretos de la máquina alemana “Enigma”. Más tarde contribuyó a diseñar otra máquina llamada “Colossus” que permitió conocer, por ejemplo, que la ciudad de Coventry iba a ser bombardeada. El gobierno británico, con el fin de que los alemanes no supieran que sus códigos estaban siendo descodificados, no avisó a la población de la ciudad que fue devastada. Turing recibió la Orden del Imperio Británico.

Debido a su homosexualidad fue poco a poco relegado por sus colegas y el gobierno, lo cual parece que fue lo que le llevó al suicidio en Wilston en 1954.

Las máquinas de Turing se componen simplemente de una cinta potencialmente infinita dividida en recuadros y un cabezal lector-escritor que es capaz de leer, borrar y escribir sobre lo borrado, símbolos en la cinta, y también es capaz de moverse a izquierda y derecha en la cinta. La máquina, después de cada movimiento o cada símbolo que haya escrito o borrado, pasa de estar en un cierto “estado” q1, a estar en otro cierto estado q2 (que puede ser el mismo que q1). Estas máquinas son máquinas ideales: no se pueden comprar, como dicen quiso hacer un Rector en mis tiempos de estudiante.

En el caso más sencillo, en la cinta sólo se escriben ceros y unos.

El problema estriba en que estas máquinas son complicadas. Por ejemplo, una máquina que quisiera doblar el número de “1” seguidos, cada uno en un cuadrado de la cinta, estando el resto de la cinta vacío (es decir, la simple operación de “multiplicar por 2” que conocemos desde niños), necesita doce estados. No digamos de otras máquinas que computen funciones y problemas complejos de la aritmética. Pero es crucial entender que Turing no intentaba construir una simple calculadora, sino precisar la idea de algoritmo y, desde aquí, determinar la existencia de problemas indecidibles y plantearse la cuestión de si las máquinas pueden o no “pensar”.

Entre todas las funciones de la aritmética, hay una muy extraña, la “función productividad p”, que no voy a definir, pero que fue crucial para detectar importantísimos problemas indecidibles. Un problema es “indecidible” cuando se ha demostrado que es irresoluble mediante algoritmo (o lo que es igual, mediante una máquina de Turing). No es que no sepamos ahora resolverlo, es que se demuestra que jamás se podrá diseñar un algoritmo o una máquina que lo resuelva.

Podrá decirse ¿qué importa que exista o no una máquina (que fue denominada “BB”, por Busy Beaver, “castor ocupado”) que resuelva el problema del cálculo de la función productividad? La respuesta es que ese hecho reduce a cenizas creencias muy importantes sobre los mismos fundamentos del pensamiento en las ciencias formales (¿y por tanto de los mecanismos simbólicos de nuestro cerebro?) que se tenían por seguras. Una Ciencia Formal, o “formalizada” es una ciencia donde todas sus afirmaciones se pueden escribir de una manera precisa con símbolos, y los procedimientos para demostrar nuevas afirmaciones también están determinados de manera muy precisa.

En particular, se demuestra que el problema de dada una fórmula de una parte importante y básica de la lógica, la lógica de predicados que se refieren a dos o más argumentos (un ejemplo de fórmula de la lógica de predicados con dos argumentos es: x y A(x, y) “para todo x, existe al menos un y, tal que x es tan alto como y”), no existe ningún algoritmo general (ninguna máquina genérica) que nos diga si fórmulas de ese tipo son o no válidas.

Es decir, la lógica, o sea la base del pensamiento formal humano, de los procesos simbólicos de las máquinas y de la Inteligencia Artificial, no cuenta con métodos efectivos generales para determinar la validez de sus afirmaciones.

Con posterioridad al trabajo de Turing se han ideado otras máquinas ideales, entra las que mencionamos las “máquinas de registros”. Estas máquinas y, curiosamente, los ábacos, las máquinas más antiguas que existen, así como otros algoritmos ideados (el algoritmo de Markov y el algoritmo de Post especialmente), computan todos el mismo tipo de funciones que las computadas por máquinas de Turing, que se denominan “funciones recursivas” o “computables”.

Estas funciones acogen a todas las de la aritmética clásica, ampliadas con muchas otras que se definen en la llamada “Teoría de la Computabilidad”, y donde se pueden construir propiedades o predicados como “ser teorema”, “ser prueba”, etc.

Hay una interesante conjetura, conocida por la “tesis de Church o de Turing”, que dice que “calculable” equivale a “computable”.

Lo computable es lo que puede calcularse por una máquina ideal como la de Turing o la de Registros, o los Ábacos. Lo calculable es lo que tiene un procedimiento posiblemente no algorítmico para proponer un resultado. Que lo computable es calculable es claro, el recíproco es la tesis de Church -Turing, COMPUTABLE (por máquina de Turing) = CALCULABLE (por procedimientos incluso intuitivos) y lo que viene a decir es que lo que es calculable, por ejemplo por un ordenador o por un procedimiento, medio mecánico medio intuitivo que, por ejemplo, use lápiz y papel es, o lo será algún día, computable (por máquinas ideales). Nótese que también se puede enunciar como: lo que no es Turing computable no es, ni lo será nunca, calculable.

La tesis de Church-Turing no se ha demostrado, pero está basada en que hasta ahora, todas las máquinas ideales que se han diseñado para calcular, calculan las mismas funciones, las “funciones recursivas”, que fueron intuidas por Turing y Church y desarrolladas por Gödel. ¿Tiene esto alguna importancia respecto del problema cómo funciona nuestro cerebro o de si somos inferiores o superiores a las máquinas? En la última parte del trabajo haré un comentario a cómo la Tesis de Church-Turing puede decir algo sobre el proceso que hacemos los humanos cuando queremos resolver un problema (cuando los problemas requieran un pequeño o gran cálculo, o más general, un procedimiento).

Pasando a otra de las cuestiones que inquietaron a Turing, él propuso en la revista MIND en 1950, en un artículo titulado “Computer Machinery and Intelligence” la cuestión “¿Pueden pensar las máquinas”?.Turing dice que hay que precisar muy bien lo que significa “máquina” y lo que significa “pensar”, y propone el siguiente juego. Por máquina entiende sus máquinas.

Hay tres jugadores:

  • (A) Un hombre.
  • (B) Una mujer.
  • (C) Un interrogador, que puede ser hombre o mujer.

El interrogador está en una habitación diferente a la que están las otras dos personas. El objeto del juego para el interrogador es adivinar cuál de las otras dos personas es el hombre y cuál es la mujer (las respuestas que dan A y B son por escrito a máquina, para que C no averigüe el género de A y B por la voz o por la escritura). El interrogador puede hacer preguntas de cálculo, que son más propias de las máquinas y otras preguntas referentes a emociones, que son propias de una persona.

La pregunta que hace Turing es: si reemplazamos A por una máquina, ¿tendría C tantas equivocaciones al juzgar el género de A y de B como en el caso en que A fuera una persona (hombre)?: si el número de equivocaciones es el mismo, según Turing, la máquina sería inteligente.

El mismo Turing reconocía que la inteligencia es algo tan complejo, que este test de inteligencia era muy limitado, pero que intentando métodos como éste, alguna vez se llegará a poder atribuir inteligencia a las máquinas. Nótese además, algo que repetiremos en esta lección, que la máquina en cuestión ha tenido previamente que ser diseñada y programada. La cuestión es que, de hecho, los humanos, como especie, también hemos sido diseñados y programados con un diseño y programa evolutivos.

2.2 Kurt Gödel

Kurt Gödel nació en Brno, hoy en la República Checa, en 1906. En 1929 emigró a Viena. En cuya Universidad destacó por su inteligencia y también por más de una rareza de personalidad.

Sus descubrimientos en esa universidad, y siendo aún muy joven, sobre “incompletad”, de los que enseguida hablaremos, produjeron una revolución en la lógica, de la que entonces se creía que era casi infalible.

Al tomar Hitler el poder, Gödel emigró a Princeton con otros científicos importantes. Al enfermar, volvió a Viena. Parece que durante la enfermedad leyó mucho acerca de la locura. Esto, quizás, le volvió más excéntrico de lo que ya era: tenía por ejemplo un miedo enfermizo a contagiarse con cualquier germen, y en verano llevaba dos abrigos.

Se había unido cuando todavía vivía en Viena a una mujer que era bailarina de cabaret, pero que tuvo el mérito de aguantar (casi) toda su vida las excentricidades de Kurt. Ambos marcharon definitivamente a los Estados Unidos en 1940. Gödel murió en Princeton, en 1978.

Ha sido uno de los matemáticos más geniales que han existido. Sus contribuciones fueron muy importantes en los fundamentos de las matemáticas y en la Teoría de la Computabilidad, de la que me voy a limitar a dar una idea de lo que se llaman “los teoremas de incompletud”, por lo que tiene que ver con el tema de lo que las máquinas pueden o no pueden hacer.

Gödel tuvo la genial idea de que se podría asignar un número natural, es decir, un código, a las fórmulas y demostraciones de determinadas teorías que incluyeran la lógica y la aritmética. Lo que de hecho demostró es que, dada una lista de números naturales como por ejemplo:[13, 29, 3, 59, 3, 29, 6, 5], existe un procedimiento mecánico que asigna un número natural (o sea entero positivo o cero) que codifica o caracteriza a esa lista.

Parece que la demostración requirió escribir unos treinta folios. Lo que Gödel construye es una función “β”, computable o recursiva, tal que tomando como ejemplo la lista de arriba, hay un número “a” tal que:

β (a, 0) = nº de elementos de la lista = 8
β (a, 1) = 13
β (a, 2) = 29
……….
β (a, 8) = 5

El menor número “a” que cumple todo eso, se denomina “número de Gödel”, o código de Gödel, de la lista.

Ahora bien, una fórmula de la lógica, como por ejemplo la fórmula antes escrita: x y A(x, y) , se compone de diez símbolos. Si previamente asignamos a los símbolos lógicos un número (se hace asignando números primos y productos de potencias de primos), lo que tenemos es una lista de ocho números naturales en lugar de una fórmula y, por lo que acabamos de decir, β le asigna un número natural que codifica la lista y, por tanto, la fórmula.

Como una demostración (una prueba) es, a su vez, una columna de fórmulas, a esa columna le corresponderá una lista de números, y por lo tanto un número. La última fórmula de la prueba es “un teorema”, que como tal fórmula posee su número de Gödel.

Como ejemplo de número de un teorema (ver el interesante libro de Douglas Hofstadter, “Gödel, Escher, Bach”), el número que codifica a la fórmula lógica que corresponde a la proposición de la aritmética “Hay un número infinito de números primos” es: 8445329844508787863070005766619463864455067111.

Pues bien, no sólo a las fórmulas y las pruebas se les pueden asignar números o códigos, sino a una enorme variedad de asertos de la aritmética, como “ser axioma”, “ser teorema”, “sustituir”, etc. Hasta los programas de las máquinas se pueden codificar así.

Estas codificaciones llevaron a Gödel a intuir y probar los teoremas de incompletud, y estos últimos produjeron, como ya hemos adelantado, un vuelco en el pensamiento matemático tradicional.

Un teorema, llamado “de completud” fue probado por Gödel antes de probar los teoremas de incompletud. Lo incluimos aquí porque lo usaré para explicar el tercer teorema de incompletud.

Tiene dos versiones, una debida a Gödel y otra, más moderna, debida a Henkin.

  • Versión de Gödel: Una fórmula de la lógica es demostrable si y sólo si es válida en todos los modelos de la teoría.
  • Versión de Henkin: Una teoría es consistente si y sólo si tiene un modelo.

Voy a intentar explicar estas dos afirmaciones. Informalmente, un modelo de una teoría es un universo donde los axiomas de la teoría “tienen sentido”.

Por ejemplo, Euclides enunció como uno de los varios axiomas de su Geometría, que por un punto exterior a una recta sólo pasa una paralela a esa recta.

Ese axioma tiene mucho sentido en nuestro mundo normal de tres dimensiones, porque si ustedes dibujan una recta y un punto exterior, no pueden dibujar más que una recta que pase por el punto y que sea paralela a la recta dada. Entonces nuestro mundo normal es un buen modelo de la geometría de Euclides. De los axiomas salen los teoremas de la teoría, y los teoremas tienen sentido en un modelo si los axiomas lo tienen.

En realidad no hay mucha diferencia entre axioma y teorema. Los axiomas no son, como a veces se dice, grandes verdades indiscutibles, sino que son asertos que reúnen en pocas palabras una gran cantidad de conocimiento anterior. Con esos pocos asertos, se puede volver a reconstruir todo ese conocimiento anterior, pero mucho más ordenado, y también se puede extraer nuevo conocimiento.

Volviendo al ejemplo de Euclides, más que un genio que inventara de la nada sus axiomas de la geometría, era un excelente maestro, y lo que realmente intentó es proponer a sus discípulos una geometría más condensada y ordenada, y por eso la resumió en axiomas. Hay una tradición que dice que a las puertas de la Academia de Platón había un letrero que ponía “No debe entrar aquí nadie que no sepa geometría”.

Sea lo que sea, un modelo es un universo donde valen los axiomas y los teoremas.

Otro ejemplo de axiomas son los de la mecánica de Newton. Uno de esos axiomas es el principio de inercia “todo cuerpo no sometido a una acción externa continúa en su estado de reposo o movimiento uniforme en que se encuentra”. Los problemas surgen cuando otras teorías nacen y ponen en duda los axiomas. Por ejemplo, si el espacio está curvado, como dice Einstein, ya no se cumplen ninguno de los dos axiomas, ni el de Euclides ni el de Newton. Lo que ocurre, es que en matemáticas está muy bien definida la idea de modelo, y en otras ciencias, los modelos son provisionales.

En cuanto al significado de que una teoría “es consistente” es el siguiente: por “teoría inconsistente” entendemos unos axiomas a partir de los cuales se puede probar cualquier fórmula, luego en particular se pueden probar contradicciones como “  ” (“” significa “y”, “” significa “no”; “alfa y no-alfa”). Por tanto, teoría “consistente” es aquella donde no se puede probar todo, y no lleva a contradicciones.

El teorema de completud en la versión de Gödel (una fórmula es un teorema si y sólo si es válida en todos los modelos de la teoría), unido a que el problema del BB nos llevaba a ver que la validez en la lógica era un problema indecidible (o irresoluble por algoritmo o no-Turing computable), nos lleva a decir también que el problema de si, dada una fórmula de cualquier teoría formal, es o no demostrable, es, también, un problema indecidible o no-computable. Así, tanto la validez como la demostrabilidad de las fórmulas más básicas de la ciencia formal, y las producidas por nuestra propia investigación en ese tipo de ciencia, se ponen en duda, son problemas indecidibles o no-computables.

El teorema de completud, en versión de Henkin, nos dice que una teoría es consistente (es decir no lleva a contradicciones o, también, no es capaz de demostrar todo) si y sólo si tiene un modelo. Por ejemplo el conjunto de todos los números naturales (los enteros positivos, más el cero) es un modelo para una teoría sobre estos números, la aritmética. Nótese que los modelos nacen antes que las teorías, porque durante muchos siglos los humanos sabían operar con los números naturales antes de que alguien escribiera los axiomas de la teoría (el matemático italiano Peano)

Es importante resaltar que la parte crucial de la demostración de Henkin no usa algoritmos, no es mecánica o sea, no es dada por una máquina. En matemáticas hay pruebas que no se hacen por algoritmo, y que sin embargo se aceptan, porque se basan en unos axiomas muy importantes de la teoría de conjuntos que, si se rechazasen, habría que rechazar una buena parte de las matemáticas. Pues bien, luego veremos, al estudiar uno de los teoremas de incompletud, se produce una cierta paradoja.

Por otra parte, siempre que los matemáticos prueban algo sin utilizar algoritmos, no se quedan tranquilos hasta que encuentran un algoritmo para la prueba. ¿Por qué buscamos continuamente pruebas mecánicas? Lo curioso es que hemos visto y veremos que, para problemas muy importantes, no hay algoritmo: no es que no sepamos encontrarlo, sino que se prueba que no lo hay.

En lo que respecta a los teoremas de incompletud, estos son tres. El primero se debe a Church y el segundo y tercero a Gödel. Estos teoremas sólo se describirán en forma intuitiva, haciendo una extrapolación a lo que esos teoremas podrán decir acerca de los límites de la inteligencia artificial.

  • El primer teorema de Incompletud, traducido a forma sencilla, se puede enunciar así:

Cualquier teoría que contenga la aritmética y que no lleve a contradicción, no cuenta con técnicas efectivas generales para, dada una fórmula de su propio lenguaje, reconocer si es o no es un teorema.

Traduciendo el enunciado anterior en términos de la Inteligencia Artificial podríamos decir lo que sigue.

La Inteligencia Artificial no posee medios generales efectivos para decir si, dado un aserto (una afirmación o una negación) expresado en su propio lenguaje, tal aserto es consecuencia o no de sus propias presuposiciones

  • El segundo teorema de Incompletad, en forma intuitiva, se puede enunciar de la siguiente forma.

Cualquier teoría que contenga la aritmética y cuente con un procedimiento para reconocer sus axiomas, contiene alguna fórmula tal que ni ella ni su contraria pueden probarse dentro de la teoría.

Podríamos traducir el enunciado anterior en términos de la Inteligencia Artificial así. Si la Inteligencia Artificial posee un criterio para saber cuáles son sus propias presuposiciones (es decir, de dónde parten sus propias ideas), hay alguna expresión de su lenguaje tal que ni ella ni su contraria se pueden probar.

  • El tercer teorema de Gödel dice, intuitivamente:

Si cualquier teoría que contenga la aritmética es consistente, no hay máquina que lo pruebe”.

El problema es, recordemos el teorema de completud en versión de Henkin, “una teoría es consistente si y sólo si tiene un modelo”, que la aritmética es consistente pues tiene como modelo, al menos, la estructura de los números naturales. Pero, recordemos que la prueba era “existencial”, no algorítmica.

En términos de la Inteligencia Artificial se podría traducir así. Si la Inteligencia Artificial (que debe contener a la aritmética) no es contradictoria, no cuenta con algoritmos o máquinas para probarlo”.

¿Significa esto algo referente al poder de las máquinas y la inteligencia?

Por un lado la consistencia del tipo primero que aparece en el teorema, puede ser probada por la inteligencia humana y no por las máquinas. Pero el hombre no puede diseñar ninguna máquina que prueba mecánicamente la consistencia de las teorías más básicas. ¿Es más sabia la inteligencia humana que la “artificial”?. Un chiste malo podría ser: las máquinas son mejores (no digo más inteligentes) que nosotros porque ellas prueban que no pueden probar su consistencia y, sin embargo, nosotros nunca aceptamos que somos muchas veces contradictorios o inconsistentes.

Kant decía que los axiomas de la geometría de Euclides vienen dados a priori a la intuición humana. Se creía que los axiomas eran verdades evidentes por sí mismas. Sin embargo, otros matemáticos, como Riemann, crearon otras geometrías que sirvieron para explicar la nueva física. Y en esas geometrías no se cumple el axioma del que hablamos antes. De que por un punto exterior a una recta sólo se puede trazar una paralela a esa recta. Pues bien, Riemann demostró que si la geometría de Euclides no llevaba a contradicción, la suya tampoco llevaba a contradicción. Resulta entonces que dos geometrías que dicen cosas contrarias no se contradicen.

Esto hace pensar en una diferencia (no digo “superioridad”) de la mente con las máquinas. Supongo que una máquina que se contradiga a sí misma dejaría de funcionar, y sin embargo la mente sigue indagando en los “por qué” y encuentra soluciones.

Voy a terminar esta parte con unos testimonios que también vienen en un interesante libro de Arbib (último capítulo, ver bibliografía), sobre si los teoremas de Gödel y lo que hemos discutido aquí dicen algo más sobre la superioridad o inferioridad de la mente humana con respecto a las máquinas.

Según Arbib, dos autores, Ernest Nagel y James R. Newman que escribieron un libro traducido al español con el título “El teorema de Gödel” (Tecnos), afirman que el teorema de Gödel limita de una forma definitiva la potencia matemática de las máquinas.

“Las conclusiones de Gödel inciden sobre la cuestión de si puede construirse una máquina calculadora que iguale el cerebro humano en inteligencia matemática. Las calculadoras de hoy tienen incorporadas un conjunto fijo de directrices; estas directrices corresponden a las reglas fijas de inferencia del procedimiento axiomático formalizado. Así pues, las máquinas proporcionan respuestas a problemas operando paso a paso, siendo controlado cada paso por las directrices interiores. Pero como indicó Gödel en su teorema de incompletud, hay problemas en la teoría elemental de los números que caen fuera del alcance de un método axiomático fijo y a los que tales máquinas son incapaces de responder, por ingeniosos y complicados que sean sus mecanismos internos y rápidas sus operaciones. El cerebro humano, qué duda cabe, tendrá sus propias limitaciones, pero [la teoría de Gödel] indica que la estructura y la potencia de la mente humana son más complejas y sutiles que cualquier máquina no viviente hasta ahora imaginada”.

A estas opiniones se oponen otras. Por ejemplo, la de Hilary Putnam en su artículo “Mind and Machines”, que no voy a reproducir por su complejidad.

3. Algo de lo que las máquinas SÍ pueden hacer

3.1 Herbert Simon

3.1.1 Las máquinas pueden llevar a cabo descubrimiento científico

Una persona de entre los que contribuyeron a crear la Inteligencia Artificial fue el Profesor de la Universidad de Carnegie-Mellon (Pittsburg, Estados Unidos) Herbert Simon, con quien tuve el honor de trabajar. Le fue concedido el Premio Nobel de Economía, pero su trabajo más original fue el estudio del descubrimiento científico por ordenador que además conlleva que las máquinas pueden hacer analogías, y la posibilidad de que las máquinas tengan inspiración, intuiciones y perspicacia (insight), todo ello como parte de su búsqueda de un lenguaje apto para (semi) formalizar la Psicología como una ciencia.

Junto con sus colaboradores, Simon escribió un libro (ver Langley en bibliografía) en el que se explica un sistema llamado BACON, que descubre leyes experimentales de la física. Voy a describirlo parcialmente.

Un “Sistema Experto” es un sistema informático que recoge información de expertos, por ejemplo en medicina, y lo traduce a fórmulas que pueden ser entendidas por un ordenador, de forma que éste pueda extraer consecuencias de la información que se le ha introducido. Previamente el Sistema ha tenido que ser “verificado” y “validado”, dos procesos realmente complejos, cosa que me lleva a una digresión. ¿Cómo es posible que “negociadores” hablen alegremente de un proceso de verificación, tema complejísimo en el que estoy metido desde hace años, confundiendo además verificación con validación?.

Un tipo de Sistema Experto es el llamado “Sistema Experto Basado en Reglas”. En este tipo de sistema experto, la información se introduce en el ordenador en forma de fórmulas lógicas denominadas “reglas de producción”, que tienen la forma:

“SI se dan tales presupuestos y tales condiciones, ENTONCES hay que realizar tal o cual acción (o enunciar tal o cual valoración intermedia o final)”.

Pues bien, BACON está escrito (es decir, esta tecleado en el ordenador) en forma de reglas de producción. Para centrar mi explicación, me voy a referir a cómo BACON “descubre” la Tercera Ley de Kepler, aunque luego veremos que puede aplicarse a otras ciencias diferentes a la Astronomía.

BACON consta primero de un conjunto de reglas de producción que valen para introducir los objetos (en este caso planetas), las magnitudes (en este caso la distancia “D” de un planeta al Sol, y el período P o tiempo que tarda ese planeta en dar la vuelta al sol). Contiene en segundo lugar un conjunto de reglas de producción que traducen estrategias para encontrar regularidades entre D y P, porque la determinación de regularidades es lo que hace capaces a los científicos el poder enunciar leyes. Termina con unas reglas de producción que indican cómo se hacen dentro del sistema las operaciones matemáticas (no muy complicadas por cierto, como “ratio” y “product”) que hay que usar.

Voy a referirme sólo, de entre todas las reglas de producción mencionadas, a las que posibilitan encontrar regularidades, y de entre estas a las que se denominan “INCREASING”, ”DECREASING” y “CONSTANT”, que son las que mejor se pueden entender.

Doy previamente un pequeño resumen sobre el trabajo de Kepler para centrar el descubrimiento que hace BACON de su tercera ley.

Johannes Kepler nació en 1571. Su maestro Maestlin, enseñaba tanto el sistema geocéntrico como el heliocéntrico de Copérnico, aunque Kepler ya era un convencido heliocentrista. Trabajó también con Tycho Brahe, un gran observador que tenía confeccionadas multitud de tablas astronómicas con datos valiosísimos. Parece que Kepler usó esos datos al enunciar sus dos primeras leyes pero también parece que para enunciar su tercera ley, que es la que BACON “descubre”, hizo él mismo las observaciones y éstas fueron sólo doce. Murió en Ratisbona en 1630, después de publicar un inmenso tratado basado en la teoría heliocéntrca con datos sobre el sistema planetario.

La tercera ley de Kepler dice que el cubo de la distancia al sol de un planeta es proporcional al cuadrado del tiempo que ese planeta emplea (el “período”) en dar la vuelta al sol.

A continuación aparecen las tres reglas de producción mencionadas arriba (ver Langley pp. 76 y ss).

INCREASING
IF you want to find laws,
And you have recorded a set of values for the term X (ej. Distancia),
And you have recorded a set of values for the term Y (ej. Período),
And the absolute values of X increase as the absolute values of Y increase and these values are not linearly related. THEN consider the ratio of X and Y.

DECREASING
IF you want to find laws,
And you have recorded a set of values for the term X (ej. Distancia),
And you have recorded a set of values for the term Y (ej. Período),
And the absolute values of X increase as the absolute values of Y decrease and these values are not linearly related, THEN consider the product of X and Y.

CONSTANT
IF you want to find laws, And the dependent term D (relación final entre X e Y) has value V in all data clusters, THEN infer that D has always value V.

En la tabla que viene a continuación, se presentan tres planetas A, B y C
br> Planet Distance (D) Period (P) Term 1 (D/P) Term 2 (D² / P) Term 3 ((D³ / P²))
A 1,0 1,0 1 1,0 1,0
B 4,0 8,0 0,5 2,0 1,0
C 9,0 27,0 0,333 3,0 1,0

En la segunda columna aparece la distancia “D” de cada uno de esos tres planetas al sol. OBSÉRVESE QUE “D” CRECE.

En la tercera columna aparece el período “P” (tiempo que tardan en dar una vuelta completa al sol) de esos mismos planetas. OBSÉRVESE QUE “P” TAMBIÉN CRECE.

COMO D Y P CRECEN JUNTOS, LA REGLA “INCREASING” NOS DICE (“ratio”) QUE HAGAMOS SU DIVISIÓN (D / P), que es el TÉRMINO 1 que aparece en la cuarta columna de la tabla.

COMO D CRECE Y D/P DECRECE, LA REGLA “DECREASING” NOS DICE (“product”) QUE LAS MULTIPLIQUEMOS, (D² / P), que es el TÉRMINO 2 que aparece en la quinta columna de la tabla.

COMO (D / P) DECRECE Y (D² / P) CRECE, LA REGLA “DECREASING” NOS DICE QUE LAS MULTIPLIQUEMOS, (D³ / P²), que es el TÉRMINO 3 que aparece en la sexta columna de la tabla.

COMO ((D³ / P²)) ES CONSTANTE PARA A, B Y C, LA REGLA “CONSTANT” NOS DICE QUE IGUALEMOS (D³ / P²) A UNA CONSTANTE.

PERO (D³ / P²) = CONSTANTE, ES PRECISAMENTE LA TERCERA LEY DE KEPLER.

3.1.2 Las máquinas pueden hacer analogías

Las “reglas de producción” INCREASING, DECREASING y CONSTANT las tiene el ordenador introducidas mediante un lenguaje de programación. El ordenador va dando automáticamente los pasos que le dictan esas reglas de producción. Entonces el ordenador va siguiendo un proceso de descubrimiento. Seguramente ese proceso es el mismo que siguió Kepler con sus doce observaciones, multiplicar, dividir y combinar multiplicaciones y divisiones.

Pero lo más interesante es que, una vez que el ordenador “ha aceptado” esas reglas de producción, Langley, Simon, y los demás creadores de BACON constataron lo siguiente.

  • Introduciendo, en lugar de D y P, las magnitudes Distancia D y Tiempo T, se obtenían la ley del movimiento uniformemente acelerado: aceleración constante de la gravedad (9,8) = D / T² .
  • Introduciendo, en lugar de D y P, las magnitudes D y P, pero ahora siendo P el período de un satélite de Júpiter y D la distancia satélite-Júpiter, se encontraba la ley de Borelli, parecida a la de Kepler, ahora para este satélite.En la correspondiente tabla, que no reproduzco, la última columna es lo que realmente obtuvo el astrónomo Borelli, por lo que no es una constante exacta como en los ejemplos anteriores, pero las cantidades que resultan son casi iguales (de 53 a 58).
  • Introduciendo, en lugar de D y P, las magnitudes longitud (de un cable eléctrico) L e intensidad I de una corriente, se obtenía la ley de Ohm I (intensidad de la corriente). R (resistencia, aquí de un hilo de longitud l) = V (diferencia de potencial). En este “descubrimiento” se usa otra regla de producción, la llamada “LINEAR”, que no vamos a explicar.
  • Introduciendo, en lugar de D y P, las magnitudes Volumen V y Presión P de un gas, se obtenía la ley de Boyle. P. V = constante (presión por volumen = constante. Como en el caso de Borelli, aquí no sale una constante exacta, pero son números parecidos. Los datos son datos originales hallados por Boyle.

Todo esto nos lleva a pensar que los ordenadores pueden “razonar” por analogía. Trabajando, como habían hecho, con distancias y períodos, podían aplicar el mismo “razonamiento” a otras magnitudes porque “suponían” que guardaban relaciones parecidas a las que guardaban las distancias y los períodos.

De todas formas, los ordenadores no podrían ni descubrir si no fuera porque algún humano les ha introducido unos programas. Pero también nosotros razonamos porque nos han enseñado, aunque en nuestro caso es innato y se va desarrollando con el tiempo.

En el caso del razonamiento por analogía sí son más parecidos los procesos del ordenador y nuestros procesos. Una vez que el ordenador ya tiene el programa en su interior (por ejemplo el programa BACON), basta proporcionarle nuevos datos para que él se ponga a trabajar con lo que tiene en su memoria, y halle o no halle nuevo conocimiento.

3.1.3 Las máquinas tienen intuiciones, inspiraciones, son perspicaces.

En su artículo “Explaining the Ineffable”, Simon presenta un curioso ejemplo de lo que él llama “el tablero mutilado”. Si tenemos un tablero de ajedrez (de, por tanto, 8 x 8 = 64 recuadros) y 32 fichas de dominó, es claro que con esas 32 fichas podemos cubrir el tablero. Pero qué pasa si suprimimos en el tablero los recuadros “abajo-izquierda” (en negro) y “arriba-derecha” (también en negro)?, ¿podríamos recubrir este nuevo tablero “mutilado”?. Simon propuso este problema a un grupo de alumnos.

El proceso de la perspicacia (insight) sigue, según Simon (ver Hernando) una pauta que es la siguiente. Al principio hay un período (que produce habitualmente cansancio) de pruebas fallidas, casi todos los alumnos se pusieron a intentar recubrir el tablero sin criterio previo. Se produce de repente la sensación de abandono, un lapso de tiempo en que se deja descansar el problema.

En una tercera etapa, algunos abandonan del todo, pero otros sienten y de que el problema está a punto de resolverse, porque han cambiado su primer punto de vista a otro, el pensar si el problema es o no resoluble, no por pruebas a ciegas sino buscando alguna regularidad. Alguno tienen la “perspicacia” de encontrar esa regularidad, a saber, que cada ficha de dominó cubre exactamente dos cuadrados adyacentes, uno negro y otro blanco, y en el tablero mutilado el número de cuadrados negros ya no es el mismo que el de cuadrados blancos. La respuesta es “este problema es irresoluble”. Pues bien, lo interesante es que este proceso de perspicacia se puede emular mediante un programa.

Nosotros mismos hemos creado un “sistema experto”, denominado “BOOLE 2”, que emula las intuiciones, la inspiración y la perspicacia que George Boole, creador de la lógica algebraica, tuvo al proponer esta nueva ciencia.

3.2 Las máquinas pueden “demostrar”

Hay en la actualidad muchos demostradores automáticos. Por razón de no extenderme más, me refiero brevísimamente, sin explicarlo, sólo a uno, no porque sea mejor que otros, cada uno es bueno en un campo particular, sino por la belleza de sus fundamentos matemáticos y su eficiencia en campos importantes y útiles. Se trata de las demostraciones basadas en el álgebra computacional, donde toda la información se reduce a formulación algebraica (por ejemplo a polinomios), que el ordenador, usando lenguajes como MAPLE o CoCoA, puede manejar. La base matemática está en las “Bases de Gröbner” de Bruno Buchberger, y en unos teoremas que relacionan “ser consecuencia de” con un resultado en la teoría de “anillos” de polinomios. Hemos aplicado este tipo de demostración al diagnóstico y tratamiento de enfermedades, y al control de tráfico ferroviario y aeroportuario.

3.3 Un breve “addendum”

Modernamente las computaciones moleculares basadas en ADN y celular con membranas, abren unos caminos nuevos a la idea de computación. Pero las máquinas correspondientes siguen siendo equivalentes a las máquinas de Turing. Algo distinto puede ser que ocurra en el futuro con la computación cuántica, que usa “qubits” en lugar de “bits” de los ordenadores conocidos. Si estas máquinas podrán ser construidas, de momento hay prototipos con pocos qubits) una de ellas con 250 qubits podría hacer “1” seguido de 75 ceros computaciones simultáneas, y esto sí podría cambiar nuestra idea de lo que las máquinas sí pueden hacer.

4. Última parte, Viene entonces a cuento la pregunta del título: ¿Son las máquinas más inteligentes que nosotros? ¿Qué hacen los humanos que no puedan hacer las máquinas y al revés?

Lo primero que puedo decir es que, del breve recorrido que hemos hecho sobre lo que las máquinas, y también cualquier sistema formal NO pueden hacer, y algo de lo que SÍ pueden (o podrán) hacer, no podemos sacar una respuesta clara.

La respuesta depende de la siguiente táctica: ante tal o cual problema particular que se nos ha presentado, intentemos buscar un “cálculo”, porque la Tesis de Church-Turing nos proporciona la confianza de que más tarde o más temprano encontraremos una máquina (un cómputo, un programa) que lo resuelva.

Cuando los humanos tratamos de resolver un problema, nos inventamos un procedimiento, que muchas veces ni es totalmente mecánico ni siempre termina en el mismo número de pasos. A eso es a lo que hemos llamado “un cálculo”.

La tesis de Church -Turing lleva a considerar que todo cálculo que haga la mente humana, si vale para algo, es un cómputo por una máquina de Turing, y si no es un cómputo, no es un cálculo, es una ilusión.

Con la palabra “ilusión” me refiero a los enunciados que nos hacemos y los quasi-cálculos que nos inventamos cuando queremos dar solución a un problema. Por “ilusiones” también entiendo aquí esperanzas que tiene el científico, y el hombre en general, de resolver problemas que se le presentan o que intuye.

Creo que estas ilusiones nos hacen, por lo menos de momento, diferentes a las máquinas. Veamos un par de ejemplos en que las ilusiones no terminan en cómputos y, por tanto, no pueden ni ser solucionadas ni tan siquiera “ser sentidas” por una máquina.

NEWTON tuvo la ilusión de que el universo era estático e infinito, y que esa estabilidad estaba fundada en las leyes de la gravedad. Antes de la creación del mundo había habido tiempo, y el tiempo era lineal. Para justificar estas ideas inventó un cálculo, el cálculo diferencial e integral: ¿estaba cerca de un CÓMPUTO, es decir una máquina que automáticamente diera sentido a cada una de sus ideas sobre el espacio y el tiempo? El problema es que fuera de las matemáticas o de problemas muy sencillos, en otras ciencias, además de teorías descritas por medios matemáticos, hace falta someter los resultados a exigentes experimentos que no “falsen” las teorías.

La ilusión de Newton se mantuvo durante muchos años después de su muerte. Se tenía fe en que experimentos y mediciones cada vez más cuidadosos, quizás harían reformar parte de la teoría, pero sólo lo menos importante. Sin embargo, empezaron a aparecer problemas que ponían en peligro las ideas más cruciales de Newton Los problemas se referían a planetas como Mercurio, a que al medir la velocidad de la luz, era la misma para todos, estuviesen o no en movimiento, y a que cada vez era más difícil explicar un universo infinito y estable y un tiempo lineal.

La ilusión de Newton no podía llevarse a una máquina que lo computase porque, aunque se basaba en un potente cálculo, este cálculo no se convertía en cómputo porque los experimentos se oponían a dar este paso.

Y aquí surgió entonces otra nueva ilusión. Einstein tuvo la ilusión que el espacio estaba curvado. Es como si una bola pesada estuviera puesta sobre una membrana elástica. La bola sería un planeta y la membrana el espacio. Como la bola pesa, hace que la membrana se curve por debajo de ella, y si viniera una pelota que hubiéramos lanzado no directamente contra la bola sino como si fuese a pasar cerca de ella, la curvatura de la membrana haría que la bola tendiera a dar una vuelta o más alrededor de la bola.

Además la ilusión incluía que el tiempo y el espacio eran inseparables y que el universo no era estático sino que estaba en expansión.

También Einstein (junto con el matemático Hilbert) creó un cálculo que explicara sus ideas, pero se necesitaban experimentos que no falsaran los resultados de esos cálculos Lo parecido a un algoritmo que probara las teorías de Einstein serían, además de un cálculo, un conjunto infinito de experimentos (con unas instrucciones precisas). Pero como infinitos experimentos no se pueden hacer, de nuevo, las ideas de Einstein no se pueden probar ni desaprobar por una máquina.

Resumiendo, en otras ciencias que no son las matemáticas así como en nuestras vidas, sí se hace ilusiones el hombre y esas ilusiones no se pueden llevar a las máquinas ideales, ni en física, ni en química y mucho menos en medicina , psicología, además de en nuestra vida diaria. Es posible que en el futuro, por ejemplo, el genoma humano pueda explicar todas las enfermedades mentales, lo cual se parece mucho a aplicar un algoritmo al problema de diagnosticar enfermedades. Supongo que también ahí habrá problemas indecidibles.

Todo lo dicho parece sugerir que las máquinas y nosotros somos parecidos en “inteligencia”, ninguna de las dos partes es superior a la otra.

De que las máquinas no tengan, de momento, “ilusiones”, y sobre todo, que SI YA SABEN DESCUBRIR, INTUIR, DEMOSTRAR, Y OTRAS MUCHAS MÁS COSAS, ES PORQUE EL HOMBRE LAS HA PROGRAMADO, parece indicar que somos superiores a ellas.

Sin embargo, se plantea aquí una cuestión: ¿no es cierto que también nosotros estamos “programados”?, ¿qué ocurrirá el día en que la computación cuántica sea una realidad?. En este último caso, el hombre quizás tendrá que “dejar sola” a la máquina, porque uno de los postulados de la mecánica cuántica es precisamente que la interacción observador (usuario) – experimento, varía las condiciones de este último. Como hemos dicho, una máquina cuántica con 250 qubits podría hacer un número de computaciones simultáneas de un “1” seguido de 75 ceros. Estos hechos podría cambiar la opinión de los que nos inclinamos (sólo nos inclinamos) a pensar que el hombre es todavía más inteligente que la máquina.

En mi modesta opinión, creo que hay que relativizar la pregunta del título de la lección. Según Simon, más que preguntar quién es más inteligente, habrá que preguntar para cada tarea concreta ¿quién lo haría mejor?. En pocas palabras, creo que la pregunta no tiene demasiado sentido (y ¿para esto hemos estado dando vueltas a las limitaciones y poderes de las máquinas?). Creo que el hombre ha evolucionado siempre con “artefactos”, y el ordenador no es más que un artefacto. Lo que ocurre es que ha resultado ser un artefacto muy peculiar, admirable y temible a la vez, que parece escapársele a su “creador”.

La pregunta adecuada, en mi opinión, no es ¿quién es más inteligente?, sino, ¿hacia dónde evolucionará el par hombre-máquina?

Termino diciendo, tengan ustedes ilusiones, porque eso de momento (sólo de momento), les diferenciará de las máquinas.

Luis M.ª Laita de la Rica
Profesor de la Escuela Politécnica Superior

Bibliografía

Adams, W. W., Loustaunau, P., An Introduction to Gröbner Bases (Graduate Studies in Mathematics, American Mathematical Society, Providence, RI, 1994).

Alok Jha y un equipo de investigadores británicos, “La Informática inteligente”, periódico “El Mundo” del día 22 de diciembre de 2003, pág. 28.

Arbib, M.., Cerebros, Máquinas y Matemáticas, Alianza editorial, Madrid (1976).

Boolos, G. S., Jeffrey, R. C., Coputability and Logic, Cambridge Uiversity Press, Cambridge (1982).

Buchberger, B. An Algorithm for finding a Basis for the Residue Class Ring of a zero-dimensional Polynomial ideal (Tesis doctoral, Universidad de Insbruck, Insbruck 1965).

Chazarain, J., Riscos, A., Alonso, J. A., Briales, E., Multivalued Logic and Gröbner Bases with Applications to Modal Logic, J. Symbolic Computation 11 (1991) 181-194.

Cutland, N. J., Computability: an Introduction to Recursive Function Theory, Cambridge University Press, Cambridge (1980).

Gran Larousse Universal, Vol 23, “Joannes Kepler, pp. 7314-15 (1979). Hawking, Stephen, El mundo en una cáscara de nuez, Crítica, Planeta, Barcelona (2002).

Hernando, A, De Ledesma, L. Laita:, L. M., El problema del tablero mutilado, una resolución a través de perspicacia (insight), Boletín de la Sociedad "Puig Adam" de Profesores de Matemáticas,70 (Madrid 2005).

Hernando, A, De Ledesma, L. Laita:, L. M., Towards a Theory of Insight, Proceedings of the 12th IASTED Conference on Applied Simulation and Modelling, Ed. Hamza, (2003) pp. 181-186

Hofstadter, D. R., Gödel, Escher, Bach: an Eternal Golden Braid, (Basic Books 1979).

Kulkarni, D., Herbert A. Simon, H. A., The Processes of Scientific Discovery, the Strategy of Experimentation. Cognitive Science 12 (1988) 139-175.

Laita, L- M., Roanes-Lozano, E., de Ledesma, L. Alonso, J. A., A Computer Algebra Approach to Verification and Deduction in Many-Valued Knowledge Systems, Soft Computing. 3/1 (1999) 7-19.

Laita, L. M., de Ledesma, L, Knowledge Based Systems Verification, Encyclopedia of Computer Science and Technology, ed. A. Kent, J.G. Williams, Vol 36 (1997) 253-280, Marcel Dekker, New York.

Laita, L. M., Roanes-Lozano, E., de Ledesma, L., J.A. Alonso J. A. , A Computer Algebra Approach to Verification and Deduction in Many-Valued Knowledge Systems. Soft Computing (Springer Verlag), 3/1 (1999) 7-19

Laita, L. M.,Roanes-Lozano, E., Maojo, V., de Ledesma, L., Laita, L., : An Expert System for Managing Medical Appropriateness Criteria Based on Computer Algebra Techniques. Computers and Mathematics with Applications 51/5 (2000) 473-481.

Laita, L. M., Roanes Lozano, E., Alonso J., A., Número dedicado al tema: cálculo simbólico e n lógica e inteligencia artificial, Ed. M. López Pellicer RACSAM, Revista de la Real Academia de Ciencias, Serie A de Matemáticas, 98 1-2, (2004) 274 páginas.

Laita, L.M., de Ledesma, L., Roanes-Lozano , E., The genesis of Boole´s Logic; its History and a Computer Exploration, Memorias de la Real Academia de Ciencias, Serie de Ciencias Exactas, Volumen XXXIII, 154 páginas

Langley, P. W., Zytkow, J. M., Simon, H. A., Bradshaw, G., L., The Search for Regularity: four Aspects of Scientific Discovery, Michalski, Mitchell and Carbonell, eds, Machine Learning, 2 (1986) 425-46,. Morgan Kaufmann.

Langley, P. W., Jan M. Zytkow, Herbert A. Simon and Gary L. Bradshaw, Scientific Discovery, Computational Explorations of the Creative Processes, MIT Press (Cambridge MA, 1987).

de Ledesma,. L, Laita, L. M., Aurora Pérez, A., Borrajo, D., Descubrimiento científico e inteligencia artificial,. Real Academia de Ciencias Exactas, Físicas y Naturales,. Proceedings del Segundo curso de conferencias sobre Inteligencia Artificial (1993) 115-132.

de Ledesma. L Pérez, A., Borrajo, D., Laita, L. M., Theory-driven historical discovery: Boole's abstract formalization of Logic, Working Notes of the AAAI Spring Symposium Series, Systematic Methods of Scientific Discovery (Stanford, 1995), 60-65

Lenat, D. B., The Nature of Heuristics, Artificial Intelligence, 19 (1982) 189--249.

Lenat, D. B., Eurisko: A Program that Learns new Heuristics and Domain Concepts, Artificial Intelligence, 21 (1983) 61-98.

Luger, G. F., Stubblefield, W. A., Artificial Intelligence, Structures and Strategies for Complex Problem Solving. Addison Wesley Longman, Inc. (Harlow, England 1998).

Minsky, M., Can Machines Think?, in Computers and thought, (Fiegenbaum and Feldman eds, McGraw-Hill, 1963).

Mendelson, E., Introduction to Mathematical Logic, D. Van Nostrand, Princeton, New Jersey (1964).

Mosterín. Jesús, Los Lógicos, Espasa Calpe S. A. Madrid (2000).

Pérez Jiménez, M., Riscos Núñez, A., Modelos de Computación Molecular, Celular y Cuántica, Fénix Editorial, (Sevilla, 2004).

Roanes-Lozano, E., Laita, L. M. An Applicable Topology independent Model for Railway Interlocking Systems, Mathematics and Computers in Simulation, 45/1, .(1998), 83-99.

Roanes-Lozano. E., Laita, L. M., Railway Interlocking Systems and Gröbner Bases, Mathematics and Computers in Simulation 58 (2002) 203-214.

Roanes Lozano, E., Muga, R., Laita, L. M., Roanes Macías, E.,: A terminal area topology-independent GB-based conflict detection system for A-SMGCS, RACSAM (Revista de la Real Academia de Ciencias, Serie A, Matemáticas, :8 (1-2), (2005) 214-229

Shen, W-M, Functional Transformations in AI Discovery Systems, Artificial Intelligence, 41 (1990) 257-272.

Shrager J., Langley, P., Computational Models of Scientific Discovery and Theory Formation, Morgan Kaufmann, 1990.

Shoenfield, J. R., Matemátical Logic, Addison Wesley, Reading Massachussets (1967).

Simon, H. a., Explaining the Ineffable: AI on the topics of Intuition, Insight and Inspiration, Proc. of the 14th IJCAI (1996) 839-846.

Trillas, E., La Inteligencia Artificial, Máquinas y Personas, Temas de Debate, Colección dirigida por J. M. Sánchez Ron, Madrid (1998).

www.time.com/time100/scientists.

Universidad CEU San Pablo. C/ Julián Romea 23, 28003 Madrid.