Translate this page

lunes, 27 de enero de 2014

Las paradojas de la razón autorreferente (2/2): Gödel, Turing, Wittgenstein.

¿Es la aritmética consistente y completa?


En la primera parte de esta entrada vimos que el eminente matemático David Hilbert plantea a principios del siglo XX dos cuestiones fundamentales cuya respuesta era necesaria para cumplir su programa de fundamentar las matemáticas sobre una segura base formal.

El objetivo de la comunidad matemática era (y aún lo es) crear sistemas axiomático-deductivos con los que pudieran demostrarse en forma de teoremas todas las fórmulas o enunciados verdaderos expresables en el sistema (completitud) y además no pudieran generarse falsedades (consistencia). También, idealmente, debería haber un método mecánico o determinista para decidir si cualquier fórmula es verdadera o no (decibilidad).



  • Hilbert plantea en 1900 que es necesario probar la consistencia de los axiomas de la Aritmética, es decir, que no se pueda deducir mediante reglas lógicas ninguna contradicción a partir de los axiomas referidos a los números naturales y las operaciones de suma y multiplicación.
  • Posteriormente, en 1928, Hilbert y Wilhelm Ackermann añaden el llamado problema de la decisión: encontrar un proceso formal (un algoritmo) que de forma mecánica pueda decidir si una fórmula o enunciado es verdadero (demostrable) o no lo es. En realidad este problema tiene a su vez dos partes:
    • Primero, habría que probar que el sistema axiomático es completo (que permite decidir si cualquier fórmula o enunciado con sentido es verdadero o falso)
    • Segundo, habría que encontrar el algoritmo o proceso mecánico para tomar esta decisión. Como pasos hacia este objetivo, en 1936 Alonzo Church formalizó el concepto de algoritmo en forma funcional con su cálculo lambda y Alan Turing en forma computacional con la máquina de Turing.

Veremos que debido precisamente a la autorreferencia de los sistemas de razonamiento formal que vimos en la entrada anterior, la respuesta a estos problemas es negativa. La aritmética y todos los sistemas formales y computacionales que incluyen a la aritmética no son completos ni decidibles, y tampoco se puede probar que sean consistentes.


Gödel demuestra la incompletitud de la Aritmética y la indemostrabilidad de su consistencia


El primer paso para mostrar las limitaciones de la formalización de la matemática (y los programas de fundamentación lógica de Rusell y los positivistas lógicos) fueron los llamados Teoremas de Incompletitud que el joven matemático Kurt Gödel publicó en 1931 con el título "Sobre proposiciones formalmente indecidibles de Principia Mathematica y sistemas relacionados".



El primer teorema afirma que:

Cualquier teoría aritmética recursiva que sea consistente es incompleta

Es decir, una teoría que incluya a la aritmética, no puede ser a la vez consistente y completa.




La elegancia en la demostración de Gödel y su impacto rompiendo la estructura monolítica de la lógica clásica se ha comparado muchas veces a la de la Teoría de la Relatividad de Einstein. Por cierto que Einstein y Gödel se hicieron muy amigos cuando ambos se encontraron trabajando en la universidad de Princeton tras huir de una Europa amenazada por la Alemania nazi.


Vayamos a la maravillosa demostración de Gödel, que es en realidad sencilla de comprender a partir de la paradoja del mentiroso que vimos en la entrada anterior. La idea es sencilla de entender, pero los detalles requieren un poco de atención  :-)  Si os perdéis, al menos podéis ver este interesante vídeo:


Primero, Gödel muestra cómo las teorías formales de la aritmética son recursivas, es decir, autorreferentes. Veámoslo:

  • Las variables utilizadas en las fórmulas o enunciados de la aritmética se refieren a números naturales (0, 1, 2...), por ejemplo, a, b y c representan números cualquiera en esta fórmula:

  • Los símbolos que aparecen en las fórmulas, incluyendo las variables, operadores matemáticos (suma, multiplicación) y los símbolo lógicos (igualdad, implicaciones, cuantificadores), se pueden también representar como números, llamados códigos o números Gödel, y todos los códigos que aparecen en una fórmula se pueden combinar para representarla como un único número, utilizándolos como exponentes de los sucesivos números primos y luego multiplicándolos. Este proceso se llama numeración de Gödelgodelización y podéis comprobarlo en esta aplicación.

Lo importante es que a cada posible fórmula de la aritmética le corresponde un número único que representa unívocamente esa fórmula.
  • Como conclusión de los anteriores puntos, los números referidos por las variables que aparecen en una fórmula (a,b, x, y...) pueden ser los códigos de otras fórmulas, y por tanto, las fórmulas de la aritmética pueden expresar enunciados sobre sí mismas: tienen la capacidad de ser autorreferentes.

En el segundo paso, Gödel construye un enunciado que representa el hecho de que una fórmula x es derivable (demostrable) en el sistema axiomático. Es posible construir este enunciado porque cada operación de derivación en el sistema formal de la aritmética se puede ver como una combinación de operaciones aritméticas sobre los códigos Gödel de las fórmulas.

D(x)   :   la fórmula x es demostrable

Por otra parte, supongamos que una fórmula f usa una variable y, e imaginemos el proceso de sustituir y en la fórmula f por el número Gödel de f. Podemos definir una fórmula o función que representa esta operación, que llamaremos AutoGodelización:

x = AutoGodel(f)  :  x es la fórmula que resulta al sustituir en la fórmula f la variable y por el propio código de f

En el último paso, utilizaremos estos enunciados aritméticos para construir una fórmula que afirma de sí misma que no es demostrable (fórmula G). Es un claro paralelismo con la paradoja del mentiroso, pues G utiliza una combinación de autorreferencia y negación. Vemos cómo se hace. Primero construimos esta fórmula:

Fórmula g   :   no es cierto que (D(x) y además x = AutoGodel(y))
(no es cierto que x sea demostrable y al mismo tiempo sea la AutoGodelizacion de y)

Ahora creamos la AutoGodelización de la fórmula g, sustituyendo y por el código numérico que corresponde a la fórmula (llamamos g a este número, para abreviar) y llamaremos G a la fórmula resultante de la sustitución:  G = AutoGodel(g). Por tanto, al cambiar y por g resulta:

Fórmula G = AutoGodel(g)  ==>   no es cierto que (D(x) y además x = AutoGodel(g))

Como hemos definido G = AutoGodel(g), es obvio que x es igual a G en la parte derecha de la fórmula, y es por esta razón por la cual la fórmula G habla de sí misma:

Fórmula G   :   no es cierto que (D(G) y además G = AutoGodel(g))

Como la segunda parte es obviamente cierta por la definición de G, lo que la fórmula G dice en realidad es:

Fórmula G    :    no es cierto que D(G)

Dicho de otra manera:

Fórmula G:  "La fórmula G no es demostrable"

Ahora pensemos, ¿es la fórmula G verdadera o falsa?

  • Si la suponemos verdadera entonces, según ella afirma, no es demostrable. Como consecuencia, el sistema de la aritmética sería incompleto, incapaz de demostrar una fórmula que es verdadera.
  • Si la suponemos falsa entonces lo contrario sería cierto: la formula G sería demostrable. Pero esto implicaría que el sistema de la aritmética es inconsistente, pues permite demostrar una fórmula falsa.
De donde se sigue que o bien el sistema de la aritmética es incompleto (si G se considera verdadera) o bien inconsistente (si G se considera falsa). 

Lo cierto es que Gödel consigue demostrar que G es verdadera. Por la forma en que se ha construido como negación de todas las posibles derivaciones, Gödel y cualquier humano que siga la demostración sabe que G no se deriva de los axiomas de la aritmética, pero ella misma afirma que no es demostrable dentro del sistema. Esto tiene la profunda implicación de que existen verdades expresables en las teorías que incluyen a la aritmética (enunciados que podemos ver que son verdaderos) que las mismas teorías no pueden demostrar.



En su segundo teorema, Gödel demuestra que la fórmula G es verdadera si y solo si la fórmula A: "El sistema de la aritmética es consistente" es verdadera. Como consecuencia, tampoco esta fórmula A es demostrable, y por tanto la consistencia de la aritmética no es demostrable, aunque sea verdadera.
La conclusión es que desde dentro de un sistema de razonamiento formal podemos hacer muchas cosas, pero no podemos ni demostrar todas las verdades posibles (aunque sean expresables en nuestro sistema), ni tampoco demostrar que nuestro sistema no va a generar falsedades, aunque es posible que desde fuera del sistema podamos demostrarlo.
Esta conclusión ha sido utilizada por Roger Penrose y otros autores para argumentar que la mente humana es superior a cualquier ordenador o sistema computacional que pudiera construirse. Sin embargo, otros autores como Douglas Hofstadter han mostrado la falacia de esta interpretación (ver el libro "Gödel, Escher, Bach" más abajo): tanto la mente humana como los 'sistemas algorítmicos' pueden razonar sin estar limitados a trabajar dentro de un sistema formal.

El problema de la decisión: Church y Turing


Tras los teoremas de Gödel en 1931, el mundo de la lógica y la matemática se quedaron en choque. Los objetivos de Hilbert de demostrar la consistencia y la completitud de la aritmética (la más simple de las teorías matemáticas) se revelaron imposibles y se puso en cuestión la firmeza de los sistemas formales como sustento del conocimiento, un factor decisivo en el abandono del programa del positivismo lógico, y el impulso para que nacieran otras concepciones del lenguaje y la epistemología (como veremos más abajo, con el segundo Wittgenstein).

Mientras tanto, aún quedaba por resolver otra de las preguntas de Hilbert, el problema de la decisión. ¿Sería posible desarrollar un método mecánico o algoritmo para saber si una fórmula de la aritmética es demostrable o no? ¿Qué pasaría si existiera un sistema de decisión así y se le pidiera determinar la demostrabilidad de la fórmula de Gödel?

Para resolver el problema de la decisión había primero que desarrollar un modelo formal de un 'método mecánico o algoritmo'. El primero en hacerlo fue Alonzo Church con su cálculo lambda, basado en la definición de funciones recursivas. Los que seáis programadores ya sabéis lo que son, y los que no... pues tendrías que estudiarlo, y esta es la razón de que los trabajos de Church no sean hoy muy conocidos comparados con los de Turing.


La prueba de indecibilidad de Church es muy similar a la de Gödel. Church construye una función recursiva que al aceptar como entrada un código numérico que la representa a ella misma genera una contradicción.

Poco después, el matemático inglés Alan Turing crea en su tesis doctoral otro modelo formal de computabilidad, la máquina de Turing, y demuestra que el problema de decisión es equivalente al problema de si existe o no una máquina de Turing capaz de determinar si una máquina cualquiera se detendrá o no al presentársele una entrada de datos: es el llamado problema de la parada.




Nadie mejor que el propio Turing para explicarlo (en realidad se trata del personaje de Turing en el docudrama de la BBC Breaking the code):




El video que sigue explica perfectamente (y de manera divertida) como Turing demuestra que el problema de la parada no es resoluble. NO OS LO PERDAIS. Si los subtítulos no se activan solos, pulsad el botón CC y seleccionar la opción de traducción al español:


Poco después de las demostraciones de indecibilidad de Church y Turing, se hizo evidente que sus dos modelos de computabilidad eran equivalentes. Ambos pueden representar cualquier algoritmo. Esta afirmación, la llamada Tesis de Church-Turing, es indemostrable, pero nadie ha encontrado un contraejemplo: un proceso que sea calculable pero que no pueda realizar una máquina de Turing o una función lambda.

Por tanto, vemos que la capacidad de estos instrumentos formales para trabajar con representaciones de sí mismos les lleva a la imposibilidad de decidir la verdad o falsedad de ciertas cuestiones.

El lenguaje y lo que hay más allá: Wittgenstein


La vida y obra de Ludwig Wittgenstein merece seguramente varias películas y un blog dedicado a él solo. Confieso que se trata de mi filósofo favorito, tanto por lo dramático de su vida como por lo original y profundo de su pensamiento.


Wittgenstein abandonó a su rica familia vienesa (que le desheredó) y se marchó a estudiar aeronáutica a Inglaterra, donde le atrajo más el desarrollo de la lógica y los fundamentos de la matemática que Bertrand Russell (de quien hablamos en la entrada anterior) llevaba a cabo en Cambridge. Así que se convirtió en estudiante de Rusell, o más bien en un colega advenedizo que pasaba horas discutiendo con él y cuestionando las conclusiones y el programa de su supuesto mentor.

En un principio los objetivos de Wittgenstein parecían coincidir con los de Rusell y los positivistas lógicos del Círculo de Viena, incluso iban más allá de lo que éstos planteaban.

Wittgenstein no sólo quería fundamentar lógicamente las matemáticas, sino el lenguaje mismo, y dado que según pensaba el lenguaje determinaba la forma en que podemos pensar la realidad, estaría fundamentando así también la ontología y el conocimiento del propio mundo.


Sus ideas estaban relacionadas con las de Immanuel Kant (ver la primera parte de la entrada), solo que en lugar de ser las categorías kantianas de espacio, tiempo y causalidad las que determinan la realidad que podemos pensar con sentido, para Wittgenstein es la forma lógica del lenguaje la que define qué se puede comprender y expresar acerca de la realidad.


Wittgenstein desarrolla esta teoría en uno de los libros más fascinantes que existen, el Tractatus Logico-Philosophicus, donde en cortas sentencias numeradas, el filósofo mezcla los fundamentos de la Lógica (Wittgenstein desarrolló el método de las tablas de verdad y contribuyó la clarificar la lógica de predicados) con un intento de delimitar lo que se puede conocer con sentido. En apariencia, sería un programa similar al del positivismo lógico.


Pero aunque utiliza herramientas lógicas similares a Rusell y los positivistas, las intenciones de Wittgenstein son totalmente diferentes. Quiere mostrar que lo verdaderamente importante (la ética, la estética, la metafísica, el sentido del mundo, nuestros problemas vitales), lo que él denomina lo 'místico', es inalcanzable en el marco de la lógica, de la ciencia y del lenguaje. No puede 'decirse' con sentido, solo puede 'mostrarse'.


Vale la pena incluir aquí algunas de las proposiciones finales del Tractatus (podéis encontrar el texto completo aquí):

6.41 El sentido del mundo tiene que residir fuera de él. En el mundo todo es como es y todo sucede como sucede; en él no hay valor alguno, y si lo hubiera carecería de valor. 
 Si hay un valor que tenga valor ha de residir fuera de todo suceder y ser-así. Porque todo suceder y ser-así son causales. 
...
6.421 Está claro que la ética no resulta expresable. La ética es trascendental. (Etica y estética son una y la misma cosa.) 
...
6.521 La solución del problema de la vida se nota en la desaparición de ese problema. (¿No es ésta la razón por la que personas que tras largas dudas llegaron a ver claro el sentido de la vida, no pudieran decir, entonces, en qué consistía tal sentido?) 
...
6.522 Lo inexpresable, ciertamente, existe. Se muestra, es lo místico. 

Wittgenstein coincide con las tradiciones místicas y la filosofía oriental en la conclusión de que el enigma de las cuestiones últimas no puede resolverse ni explicarse con el lenguaje, y tiene que ver más con la liberación de las ataduras del propio lenguaje.



Wittgenstein también aborda desde esta perspectiva la duda de Kant sobre las ideas como el infinito, la eternidad, el Alma, el Mundo y Dios, y llega a una conclusión similar: estas ideas se sitúan más allá del lenguaje, están fuera del ámbito de lo que se puede decir con sentido.

6.45 La visión del mundo sub specie aeterni es su visión como-todo-limitado. El sentimiento del mundo como todo limitado es lo místico. 

Lo más fascinante para mí del Tractatus es que, aunque fue publicado en 1921, 10 años antes de la demostración de Gödel, el mismo libro se convierte en una gigantesca fórmula de Gödel que se niega a sí misma.

Wittgenstein se da cuenta de la que la filosofía no puede decir nada con sentido, pues trata de ideas que no tienen un significado dado por los hechos o la lógica.

Por tanto, el propio Tractatus se niega a sí mismo. Lo que el libro dice debe ser desechado después de leerlo, y lo único que queda a Wittgenstein es callarse, pues lo que hay más allá del lenguaje solo puede mostrarse. 

6.53 El método correcto de la filosofía sería propiamente éste: no decir nada más que lo que se puede decir, o sea, proposiciones de la ciencia natural - o sea, algo que nada tiene que ver con la filosofía ...

6.54 Mis proposiciones esclarecen porque quien me entiende las reconoce al final como absurdas, cuando a través de ellas -sobre ellas- ha salido fuera de ellas. (Tiene, por así decirlo, que arrojar la escalera después de haber subido por ella.) Tiene que superar estas proposiciones; entonces ve correctamente el mundo. 

7 De lo que no se puede hablar hay que callar. 


Debe ser el único caso de la historia en que un filósofo ha llegado a la conclusión de que debe callarse  :-)  Y la realidad es que Wittgenstein fue coherente con su diagnóstico y dejó la filosofía durante muchos años, hasta que se dio cuenta de que estaba equivocado (y muriéndose de hambre).

Obsérvese el paralelismo con los teoremas de Gödel, Church y Turing. El Tractatus es como la fórmula G: podemos reconocer que lo que dice es cierto, que realmente muestra que el lenguaje 'con sentido' tiene límites. Sin embargo, precisamente por estar construido con lenguaje (como la fórmula G está construida con un sistema formal), no tiene sentido él mismo. Otra paradoja de la razón autorreferente.

Si os interesa aprender algo más sobre Wittgenstein, os recomiendo este episodio de La Aventura del Pensamiento donde Fernando Savater explica la filosofía de este autor. Concretamente, a partir del minuto 9 habla del Tractatus, y en el minuto 11 de los ímites de lo decible:



En una fase posterior de su vida, Wittgenstein cambia su concepto del lenguaje, y lo basa no en la lógica formal, sino en las reglas que los mismos hablantes definen (implícitamente) y que pueden dar lugar a diferentes usos igualmente válidos. Como en diferentes 'juegos', no hay unos lenguajes más verdaderos que otros: cada uno es válido si sirve a los propósitos de los jugadores, si sigue sus reglas internas.

Aquí tenemos al mismo Wittgenstein explicándolo, en la película de Derek Jarman que lleva su nombre:



Para más diversión...


Varias ilustraciones de la primera y segunda parte de esta entrada están sacadas del maravilloso comic Logicomix, que relata de forma entretenida (con las pequeñas licencias dramáticas necesarias) la historia de Rusell, Gödel, Church, Turing y Wittgenstein en su implacable búsqueda de la verdad sobre los fundamentos de la lógica y las matemáticas.



También he utilizado ideas y adaptado la demostración del teorema de Gödel de uno de mis libros favoritos: Gödel, Escher, Bach: un Eterno y Grácil Bucle, con el que el matemático, filósofo y divulgador científico Douglas Hofstadter obtuvo el Premio Pulitzer. Se trata de uno de los libros que, a pesar de su volumen, se pueden disfrutar más por su humor, originalidad y profundidad.

Además, ¡averigüé hace poco que el mismo Philip K. Dick lo había leído y disfrutado él mismo!

La siguiente fotografía se parece bastante al estado de mi copia de esta joya, tras varias lecturas y mudanzas por el mundo:



Os dejo en buenas manos, hasta la próxima.

    Salvador


jueves, 23 de enero de 2014

La presentación de "La Ciudad de las Esferas" en Hispacon 2013





Gracias a la organización de la Hispacon 2013, y en especial del mago de la tecnología audiovisual, Jose Nieto, tenemos ya publicada la presentación completa de mi libro "La Ciudad de las Esferas" que se realizó en Quart de Poblet con la participación estelar de Emili Piera.

Os pongo aquí el vídeo. También podéis consultarlo con otras fantásticas conferencias y presentaciones en la Web de la Hispacon.



En esta entrada anterior podéis ver la introducción realizada con la tecnología de captura de movimiento de la Universidad de Valencia, y la explicación de cómo se hizo.

Hasta la próxima,

    Salvador



lunes, 20 de enero de 2014

Las paradojas de la razón autorreferente (1/2)


 En el programa tradicional de la filosofía y la ciencia (al menos desde la Ilustración y los éxitos de la física newtoniana) se pensaba que utilizando un razonamiento riguroso, formalizado lógicamente, se podrían generar enunciados verdaderos y comprobar la veracidad o falsedad de cualquier afirmación sobre la realidad, al menos de las cuestiones clasificadas como científicas.



Este programa 'clásico' se ha ido demostrando inviable por varias razones que quizás examinemos más adelante en el blog (pensemos en las implicaciones de la física cuántica respecto a la incertidumbre y la naturaleza probabilística de la propia realidad, o las consecuencias de la teoría del caos sobre la predictibilidad de los sistemas).


En esta entrada y la siguiente nos ocuparemos, sin embargo, de una serie de descubrimientos lógicos y filosóficos que tomados en su conjunto muestran una limitación intrínseca y básica del razonamiento formal, sea humano o computacional. Podríamos resumir esta limitación diciendo que cuando un sistema de razonamiento es tan potente que puede representar conceptos autorreferentes, de 'referirse' a sí mismo, de expresar el infinito, cae en paradojas lógicas que muestran su imposibilidad de generar verdades de manera consistente.


(ilustración de Logicomix, un libro que comentaré en la siguiente entrada)


La paradoja de Epiménides o del mentiroso


Como muchas otras cuestiones relativas a la ciencia y la filosofía, las paradojas lógicas del razonamiento autoreferente comenzaron con los antiguos griegos. Epiménides, un filósofo y poeta griego del siglo VI a.C., afirmó en uno de sus poemas que "Todos los cretenses son unos mentirosos", planteando sin proponérselo una paradoja, ya que él mismo era cretense.


Para formular la paradoja en términos más modernos, pensemos que Epiménides, o cualquier persona, dijera "Estoy diciendo una mentira", o "Esta frase es mentira".


La paradoja se hace aparente si pensamos, como haría la lógica 'clásica', que todo enunciado bien formado y con términos de significado definido debe ser o bien verdadero o bien falso. Sin embargo el enunciado "Esta frase es mentira" no puede ser verdadero (por que entonces, según él mismo dice, sería falso), pero tampoco falso, ya que entonces no sería cierto que es una mentira, y por tanto no sería falso.

Verdadero -> Falso
Falso -> Verdadero

En versiones más modernas de esta paradoja, que analizaremos más adelante, se repiten la incapacidad del razonamiento para representar o analizar un objeto, enunciado o problema:
  • El objeto, enunciado o problema se refiere a sí mismo (autorreferencia, que cuando es repetida lleva a la recursividad infinita)
  • El objeto, enunciado o problema niega algo sobre sí mismo

Debemos notar que el problema no depende de un enunciado específico, pues la capacidad de autorreferencia pertenece al lenguaje mismo que estamos juzgando. Por ejemplo, puede construirse la autorreferencia de forma cruzada entre dos enunciados y el problema de indecibilidad entre verdad y falsedad se produce de la misma manera:

Frase izquierda verdadera -> frase derecha falsa -> frase izquierda falsa
Frase izquierda falsa -> frase derecha verdadera -> frase izquierda verdadera

Podemos notar aquí otra característica común a las paradojas de autorreferencia: el proceso de evaluar la verdad o falsedad (resolver el problema) se convierte en una cadena infinita de inferencias o evaluaciones. Veremos en la segunda parte, al explicar el problema de la parada de Turing, que esta recursión infinita es precisamente el síntoma de la paradoja cuando la tratamos de forma computacional.

Como hizo con otros conceptos formales, el maestro del grabado M.C. Escher representó de manera inigualable la paradoja de la autorreferencia cruzada en su cuadro "Manos":


Que podemos ver aquí en versión 'actualizada':

Las paradojas de Zenón y la escuela de Elea


Otro frente de batalla en la duda sobre el alcance del razonamiento formal es la discusión de la capacidad o incapacidad de la razón para comprender conceptos básicos que deben servir para representar y comprender la realidad. También fueron los antiguos griegos los primeros en cuestionar si la razón podía informarnos adecuadamente de estos conceptos o categorías básicas de la percepción y el razonamiento sobre el mundo, concretamente acerca del espacio y el tiempo, y del movimiento como relación entre ambos.

Zenón, uno de los filósofos de la escuela de Elea, planteó varias paradojas, de las cuales la más conocida es la de Aquiles y la Tortuga. El corazón de la paradoja era la suposición de que una suma infinita de distancias no podía recorrerse en un tiempo finito. En este vídeo podéis ver una divertida y gráfica explicación:


Dado que estas paradojas parecían mostrar que el concepto de movimiento no era racionalmente sustentable, otros filósofos de la escuela, como Parménides, adoptaron la posición radical de que toda la diversidad y cambio aparente en la realidad era una pura ilusión, que el ser verdadero es único, omnipresente, eterno e indivisible, y que la verdad es solamente alcanzable por la razón pura ignorando los datos ilusorios de nuestra percepción o experiencia. Esta última idea es el punto de partida del racionalismo metafísico occidental.



Afortunadamente, el cálculo diferencial e integral de Leibniz y Newton mostró cómo el movimiento es posible al combinarse una cantidad infinita de trozos infinitesimales de espacio y tiempo para describir la trayectoria y velocidad de los cuerpos. Se solucionaron así las paradojas de Zeón. Fue una primera victoria contra el abismo conceptual del infinito, pero aún quedarían muchas más batallas y no todas podrían ganarse.

La crítica Kantiana: los límites de las categorías racionales


El filósofo Immanuel Kant, apoyado sobre el análisis previo realizado por los empiristas ingleses encabezados por David Hume, puso de manifiesto en su Crítica de la Razón Pura que el programa racionalista era inviable: la razón humana no permite manejar de forma consistente las categorías de espacio, tiempo y causalidad cuando intenta llevarlas más allá de nuestra experiencia.


Así, las preguntas sobre si el Universo es finito o infinito, si está formado por unidades indivisibles o es continuo, si existe la posibilidad de la acción incausada (libre albedrío-alma) o no, y si existe una causa primera o no (origen-dios), no son resolubles de forma racional, y por tanto la Metafísica no puede abordarse como una ciencia.


Tal como se explica aquí, tanto si las respuestas son afirmativas (tesis) como si son negativas (antítesis), todas son defendibles desde el punto de vista de la pura razón, y además la experiencia no puede confirmar ni refutar a unas ni a otras.

Por ejemplo, si pensamos en un espacio o tiempo con un límite, siempre podremos preguntarnos qué hay más allá de ese límite, por lo cual el concepto de comienzo o final del tiempo y el espacio no tiene sentido. Por otro lado, según Kant tampoco un espacio o tiempo infinito tiene sentido racional, porque nunca podemos experimentar el infinito en toda su extensión y no podemos por tanto concebirlo.



El mismo problema se hace patente con lo que Kant llama las Ideas Trascendentales: Alma, Mundo (Universo) y Dios. Según Kant, son ideas que no se adquieren ni hacen referencia a la realidad que experimentamos directamente (realidad fenoménica). Podemos pensar en esas ideas (que según Kant son necesarias para el funcionamiento práctico en la sociedad) pero no conocerlas racionalmente, porque son precisamente el límite donde nuestro conocimiento ha de detenerse, ya que quedan fuera de la experiencia posible.

Veremos en la segunda parte que la filosofía más moderna de Wittgenstein llega a una conclusión parecida a partir del análisis de la lógica y del lenguaje.


Para más información:   :-)


Los programas de racionalidad formal: Hilbert, Rusell y el positivismo lógico


La posibilidad de abarcar racionalmente el conocimiento de ámbitos que parecen 'infinitos', como algunas ideas o la propia experiencia, recibió un nuevo impulso a finales del siglo XIX a partir del trabajo de Georg Cantor para dominar matemáticamente el concepto de infinito, así como de las investigaciones de Gottlob Frege al poner las bases de la moderna lógica matemática.

 


 

Con este renovado optimismo, el más eminente matemático de su tiempo, David Hilbert, que acababa de publicar una nueva axiomatización de la Geometría, presentó en 1900 una lista de 23 problemas matemáticos que quedaban por resolver (actualmente quedan tres de ellos sin solucionar, y otros en discusión). Algunos de estos problemas eran particularmente importantes para asentar la matemática y las ciencias (particularmente la Física) sobre una base firme.



En particular, el segundo problema pedía probar que los axiomas de la aritmética (las operaciones con números enteros) son consistentes, esto es, que la aritmética es un sistema formal que no permite derivar o demostrar una contradicción. Veremos en la segunda parte de esta entrada que la solución del matemático Gödel a este problema va a suponer un mazazo a los planes de formalización completa del conocimiento.

Años más tarde, el mismo Hilbert (que tenía buen ojo para detectar problemas díficiles) enunció el llamado problema de la decisión, cuya solución por parte de Church y Turing también limita el alcance del conocimiento matemático por causa de una paradoja autorreferente, que también veremos en la segunda parte.

Sin embargo, a principios del siglo XX aún había lugar para el optimismo racional desaforado. El programa de investigación de Hilbert inspiró al filósofo Bertrand Rusell y al matemático Alfred North Whitehead (ambos trabajando en la Universidad de Cambridge) la idea de crear un sistema formal que abarcara y fundamentara todo el conocimiento matemático a partir de primeros principios o axiomas, publicando conjuntamente su monumental obra de los Principia Mathematica.


En los Principia, Russell y Whitehead utilizaban un sistema formal de cálculo lógico basado en la notación de Frege y en axiomas escogidos para diferentes áreas de la matemática. El objetivo es fundamentar la aritmética a partir de la teoría de conjuntos y extenderla hasta los números reales. Por ejemplo, véase la siguiente demostración de que 1+1=2   :-)


Este programa de formulación de las matemáticas como sistema axiomático-deductivo se quiso extender también a la fundamentación del conocimiento del mundo físico, dando nacimiento al llamado empirismo o positivismo lógico, desarrollado por el llamado Círculo de Viena.

El enfoque del positivismo lógico era que solamente aportan conocimiento y tienen sentido los enunciados demostrables analíticamente (los de la lógica y matemáticas) o los que son verificables por los hechos (suponían que las teorías científicas lo serían). El resto de los enunciados se deberían desechar como 'metafísica' (término que adquiere un sentido despectivo).

En su vertiente positiva, el empirismo lógico pensaba que uniendo la lógica al método inductivo (la observacíón experimental de secuencias de hechos de los que se extraen reglas o leyes) sería posible fundamentar de forma lógica todo el conocimiento significativo, el de las ciencias.



Sin embargo, nunca se consiguió demostrar cómo se podía construir lógicamente una ley o concepto general a partir de percepciones individuales, si no se aceptaba de entrada la regla que se quería demostrar.

Por otra parte, los enunciados básicos de la propia doctrina positivista eran, según sus propios criterios, inverificables, y por tanto no eran significativos  :-) por lo cual la teoría se cancelaba o negaba a sí misma (otra versión de la paradoja del mentiroso).



La completitud y la consistencia como sustitutos de la verdad


En el camino de formalización del conocimiento matemático se dan diferentes dificultades. Los dos problemas más serios son la indecidibilidad o incompletitud y la inconsistencia. Un sistema formal tiene un problema de indecibilidad cuando existen enunciados formulables en el sistema de los que no se puede demostrar su verdad o falsedad, por lo que también se puede decir que el sistema es incompleto. Por otra parte, la inconsistencia se produce cuando el sistema permite deducir tanto una cosa como la contraria, generando una contradicción.



En algunos casos se ha encontrado que los axiomas propuestos para una rama de las matemáticas eran insuficientes para demostrar o refutar partes de la teoría y debían ser por ello completados con nuevos axiomas, pero sorprendentemente existían varias opciones válidas para hacerlo.

De esta forma, se llega a la conclusión de que la verdad de una teoría matemática es un concepto que es interno a cada sistema, pudiendo existir varias teorías matemáticas incompatibles pero cada una con perfecta coherencia interna, por lo cual no se puede utilizar la correspondencia con la realidad o con nuestra intuición como criterio de corrección de una teoría matemática.



El ejemplo más conocido del nacimiento de teorías incompatibles pero internamente completas y consistentes es el planteado por el quinto postulado de Euclides o axioma de las paralelas. Cuando Euclides formaliza la geometría propone cinco postulados o axiomas base, por ejemplo: "Entre dos puntos cualquiera se puede trazar una recta". Pero su quinto postulado, que dice "Por un punto exterior a una recta, se puede trazar una única paralela a la recta dada" parecía a los matemáticos posteriores demasiado complicado para ser un axioma indemostrable y durante siglos se intentó probarlo a partir de los otros cuatro.

Sin embargo, en el siglo XIX se comprobó que era posible construir otras teorías geométricas (geometrías no euclidianas) cambiando el postulado de la paralela única (1) por un axioma que indica que no es posible ninguna paralela (2), o bien por otro que permite infinitas paralelas (3).


En el siglo XX se demuestra, además, que nuestro espacio-tiempo físico puede responder a cualquiera de los tres tipos de geometría, ya que todos cumplen las ecuaciones de la Relatividad General, y la elección de una u otra depende de la densidad de energía-materia en el universo. No hay una geometría más 'verdadera' que otra, aunque en la práctica una de ellas puede aproximar mejor la forma de nuestro espacio-tiempo particular.


Algo similar sucedió con otro de los problemas planteados por Hilbert, la Hipótesis del Continuo: la suposición de que entre el infinito de los números naturales y el de los números reales no hay otro tipo de infinito intermedio.



Hoy se sabe que esta suposición no se puede probar, sino que debe decidirse arbitrariamente si se quiere añadir a la teoría de números como axioma indemostrable o no.


La paradoja de Russell en la teoría de conjuntos


Al poco de dar Hilbert su lista de problemas, Russell descubrió que la teoría de conjuntos que habían formulado Cantor y Frege en el siglo XIX era inconsistente. Este descubrimiento fue un choque importante para él, porque Russell intentaba fundamentar la teoría de los números naturales sobre el concepto de conjunto, y si éste era inconsistente el edificio entero de la formalización lógica de las Matemáticas se derrumbaba.

La explicación de esta inconsistencia es lo que se conoce como Paradoja de Russell, y ofrece otro ejemplo claro de cómo una teoría se vuelve insostenible cuando se combina la autoreferencia y la negación.


La clave de la paradoja es que la teoría de conjuntos de Cantor y Frege permite formar conjuntos de conjuntos. Esto no parece demasiado problemático, pero aparece un mecanismo de autorreferencia que puede ser recurrente (conjuntos de conjuntos de conjuntos...). La paradoja de Russell surge de la siguiente manera:
  • Llamemos a un conjunto normal si no se contiene a sí mismo. Por ejemplo, el conjunto de libros escritos por Russell, o el conjunto de los conjuntos vacíos (no es vacío, y por tanto no se contiene a sí mismo). Éste es el punto de partida de la paradoja, al combinar la autorreferencia ('contenerse a sí mismo') con la negación.
  • Ahora definamos M como el conjunto que contiene a todos los conjuntos normales.
  • Preguntémonos si M es normal o no.
  • Si M fuera normal, por la definición de 'normal' no se contendría a sí mismo, pero al ser M por definición el conjunto de todos los conjuntos normales, esto implicaría que no puede ser normal, lo que contradice el punto de partida.
  • Por otra parte, si M no es normal, implicaría que sí se debe contener a sí mismo, pero entonces (puesto que M contiene solo conjuntos normales) el conjunto sería normal, contradiciendo otra vez el punto de partida.
Notemos que se llega a una contradicción recurrente, siguiendo el mismo esquema de doble implicación que en la paradoja del mentiroso. De manera formal:


Logicomix dramatiza así el descubrimiento de Russell (pinchad la imagen para ampliarla):


En ocasiones se hace una analogía entre el descubrimiento de Russell y la llamada paradoja del barbero: si el sultán obliga a que los barberos solo afeiten a quienes no se afeitan a sí mismos, ¿quién afeita a los barberos? He aquí una presentación de la paradoja con una solución no muy ortodoxa  :-)


También puede explicarse de forma precisa utilizando el símil de un catálogo en lugar de conjuntos, como explica la siguiente figura.



Una solución incompleta


¿Y cómo solucionó Russell la paradoja? Pues no tuvo otra opción que prohibir la autorreferencia de los conjuntos (evitar que pudieran contenerse a sí mismos). 


Pero como aún necesitaba utilizar conjuntos de conjuntos para su sistema formal, Russell tuvo que definir una jerarquía de tipos de entidades: 1) objetos simples; 2) conjuntos que contienen objetos simples; 3) conjuntos que contienen objetos de tipo 2 ó 1; 4) conjuntos que contienen objetos de tipo 3, 2 ó 1; etc. Esta solución evita que un conjunto de tipo N se contenga a sí mismo, pero es complicada y anti-intuitiva. Sin embargo, era la única forma de mantener consistente la teoría, sacrificando el poder de la autorreferencia. 

Demostrando que esta cuestión de la autorreferencia paradójica es general en los sistemas formales y no exclusiva de la teoría de conjuntos, la misma solución que aplicó Russell tuvo que ser utilizada por Alonzo Church para evitar problemas en el cálculo lambda, que él mismo había inventado para formalizar el concepto de función recursiva.

Pero como veremos en la segunda parte de esta larga entrada, no podemos eliminar siempre la autorreferencia, porque es parte de la capacidad intrínseca y necesaria de los sistemas formales más potentes (como en el caso de la Aritmética), y por tanto no tenemos otra opción que utilizarlos aunque sean demostrablemente incompletos e indecidibles.

Como siempre, Escher plasmó como nadie el concepto de autorreferencia de forma visual en su cuadro Galería de grabados:


Y el siguiente vídeo lo utiliza de manera magistral para mostrar cómo la autorreferencia se convierte en una recursión (visual) infinita...




Hasta la próxima, la segunda y última parte de este recorrido por las paradojas y límites que impone la capacidad de autorreferencia en los sistemas formales.

     Salvador