Translate this page

lunes, 20 de enero de 2014

Las paradojas de la razón autorreferente (1/2)


 En el programa tradicional de la filosofía y la ciencia (al menos desde la Ilustración y los éxitos de la física newtoniana) se pensaba que utilizando un razonamiento riguroso, formalizado lógicamente, se podrían generar enunciados verdaderos y comprobar la veracidad o falsedad de cualquier afirmación sobre la realidad, al menos de las cuestiones clasificadas como científicas.



Este programa 'clásico' se ha ido demostrando inviable por varias razones que quizás examinemos más adelante en el blog (pensemos en las implicaciones de la física cuántica respecto a la incertidumbre y la naturaleza probabilística de la propia realidad, o las consecuencias de la teoría del caos sobre la predictibilidad de los sistemas).


En esta entrada y la siguiente nos ocuparemos, sin embargo, de una serie de descubrimientos lógicos y filosóficos que tomados en su conjunto muestran una limitación intrínseca y básica del razonamiento formal, sea humano o computacional. Podríamos resumir esta limitación diciendo que cuando un sistema de razonamiento es tan potente que puede representar conceptos autorreferentes, de 'referirse' a sí mismo, de expresar el infinito, cae en paradojas lógicas que muestran su imposibilidad de generar verdades de manera consistente.


(ilustración de Logicomix, un libro que comentaré en la siguiente entrada)


La paradoja de Epiménides o del mentiroso


Como muchas otras cuestiones relativas a la ciencia y la filosofía, las paradojas lógicas del razonamiento autoreferente comenzaron con los antiguos griegos. Epiménides, un filósofo y poeta griego del siglo VI a.C., afirmó en uno de sus poemas que "Todos los cretenses son unos mentirosos", planteando sin proponérselo una paradoja, ya que él mismo era cretense.


Para formular la paradoja en términos más modernos, pensemos que Epiménides, o cualquier persona, dijera "Estoy diciendo una mentira", o "Esta frase es mentira".


La paradoja se hace aparente si pensamos, como haría la lógica 'clásica', que todo enunciado bien formado y con términos de significado definido debe ser o bien verdadero o bien falso. Sin embargo el enunciado "Esta frase es mentira" no puede ser verdadero (por que entonces, según él mismo dice, sería falso), pero tampoco falso, ya que entonces no sería cierto que es una mentira, y por tanto no sería falso.

Verdadero -> Falso
Falso -> Verdadero

En versiones más modernas de esta paradoja, que analizaremos más adelante, se repiten la incapacidad del razonamiento para representar o analizar un objeto, enunciado o problema:
  • El objeto, enunciado o problema se refiere a sí mismo (autorreferencia, que cuando es repetida lleva a la recursividad infinita)
  • El objeto, enunciado o problema niega algo sobre sí mismo

Debemos notar que el problema no depende de un enunciado específico, pues la capacidad de autorreferencia pertenece al lenguaje mismo que estamos juzgando. Por ejemplo, puede construirse la autorreferencia de forma cruzada entre dos enunciados y el problema de indecibilidad entre verdad y falsedad se produce de la misma manera:

Frase izquierda verdadera -> frase derecha falsa -> frase izquierda falsa
Frase izquierda falsa -> frase derecha verdadera -> frase izquierda verdadera

Podemos notar aquí otra característica común a las paradojas de autorreferencia: el proceso de evaluar la verdad o falsedad (resolver el problema) se convierte en una cadena infinita de inferencias o evaluaciones. Veremos en la segunda parte, al explicar el problema de la parada de Turing, que esta recursión infinita es precisamente el síntoma de la paradoja cuando la tratamos de forma computacional.

Como hizo con otros conceptos formales, el maestro del grabado M.C. Escher representó de manera inigualable la paradoja de la autorreferencia cruzada en su cuadro "Manos":


Que podemos ver aquí en versión 'actualizada':

Las paradojas de Zenón y la escuela de Elea


Otro frente de batalla en la duda sobre el alcance del razonamiento formal es la discusión de la capacidad o incapacidad de la razón para comprender conceptos básicos que deben servir para representar y comprender la realidad. También fueron los antiguos griegos los primeros en cuestionar si la razón podía informarnos adecuadamente de estos conceptos o categorías básicas de la percepción y el razonamiento sobre el mundo, concretamente acerca del espacio y el tiempo, y del movimiento como relación entre ambos.

Zenón, uno de los filósofos de la escuela de Elea, planteó varias paradojas, de las cuales la más conocida es la de Aquiles y la Tortuga. El corazón de la paradoja era la suposición de que una suma infinita de distancias no podía recorrerse en un tiempo finito. En este vídeo podéis ver una divertida y gráfica explicación:


Dado que estas paradojas parecían mostrar que el concepto de movimiento no era racionalmente sustentable, otros filósofos de la escuela, como Parménides, adoptaron la posición radical de que toda la diversidad y cambio aparente en la realidad era una pura ilusión, que el ser verdadero es único, omnipresente, eterno e indivisible, y que la verdad es solamente alcanzable por la razón pura ignorando los datos ilusorios de nuestra percepción o experiencia. Esta última idea es el punto de partida del racionalismo metafísico occidental.



Afortunadamente, el cálculo diferencial e integral de Leibniz y Newton mostró cómo el movimiento es posible al combinarse una cantidad infinita de trozos infinitesimales de espacio y tiempo para describir la trayectoria y velocidad de los cuerpos. Se solucionaron así las paradojas de Zeón. Fue una primera victoria contra el abismo conceptual del infinito, pero aún quedarían muchas más batallas y no todas podrían ganarse.

La crítica Kantiana: los límites de las categorías racionales


El filósofo Immanuel Kant, apoyado sobre el análisis previo realizado por los empiristas ingleses encabezados por David Hume, puso de manifiesto en su Crítica de la Razón Pura que el programa racionalista era inviable: la razón humana no permite manejar de forma consistente las categorías de espacio, tiempo y causalidad cuando intenta llevarlas más allá de nuestra experiencia.


Así, las preguntas sobre si el Universo es finito o infinito, si está formado por unidades indivisibles o es continuo, si existe la posibilidad de la acción incausada (libre albedrío-alma) o no, y si existe una causa primera o no (origen-dios), no son resolubles de forma racional, y por tanto la Metafísica no puede abordarse como una ciencia.


Tal como se explica aquí, tanto si las respuestas son afirmativas (tesis) como si son negativas (antítesis), todas son defendibles desde el punto de vista de la pura razón, y además la experiencia no puede confirmar ni refutar a unas ni a otras.

Por ejemplo, si pensamos en un espacio o tiempo con un límite, siempre podremos preguntarnos qué hay más allá de ese límite, por lo cual el concepto de comienzo o final del tiempo y el espacio no tiene sentido. Por otro lado, según Kant tampoco un espacio o tiempo infinito tiene sentido racional, porque nunca podemos experimentar el infinito en toda su extensión y no podemos por tanto concebirlo.



El mismo problema se hace patente con lo que Kant llama las Ideas Trascendentales: Alma, Mundo (Universo) y Dios. Según Kant, son ideas que no se adquieren ni hacen referencia a la realidad que experimentamos directamente (realidad fenoménica). Podemos pensar en esas ideas (que según Kant son necesarias para el funcionamiento práctico en la sociedad) pero no conocerlas racionalmente, porque son precisamente el límite donde nuestro conocimiento ha de detenerse, ya que quedan fuera de la experiencia posible.

Veremos en la segunda parte que la filosofía más moderna de Wittgenstein llega a una conclusión parecida a partir del análisis de la lógica y del lenguaje.


Para más información:   :-)


Los programas de racionalidad formal: Hilbert, Rusell y el positivismo lógico


La posibilidad de abarcar racionalmente el conocimiento de ámbitos que parecen 'infinitos', como algunas ideas o la propia experiencia, recibió un nuevo impulso a finales del siglo XIX a partir del trabajo de Georg Cantor para dominar matemáticamente el concepto de infinito, así como de las investigaciones de Gottlob Frege al poner las bases de la moderna lógica matemática.

 


 

Con este renovado optimismo, el más eminente matemático de su tiempo, David Hilbert, que acababa de publicar una nueva axiomatización de la Geometría, presentó en 1900 una lista de 23 problemas matemáticos que quedaban por resolver (actualmente quedan tres de ellos sin solucionar, y otros en discusión). Algunos de estos problemas eran particularmente importantes para asentar la matemática y las ciencias (particularmente la Física) sobre una base firme.



En particular, el segundo problema pedía probar que los axiomas de la aritmética (las operaciones con números enteros) son consistentes, esto es, que la aritmética es un sistema formal que no permite derivar o demostrar una contradicción. Veremos en la segunda parte de esta entrada que la solución del matemático Gödel a este problema va a suponer un mazazo a los planes de formalización completa del conocimiento.

Años más tarde, el mismo Hilbert (que tenía buen ojo para detectar problemas díficiles) enunció el llamado problema de la decisión, cuya solución por parte de Church y Turing también limita el alcance del conocimiento matemático por causa de una paradoja autorreferente, que también veremos en la segunda parte.

Sin embargo, a principios del siglo XX aún había lugar para el optimismo racional desaforado. El programa de investigación de Hilbert inspiró al filósofo Bertrand Rusell y al matemático Alfred North Whitehead (ambos trabajando en la Universidad de Cambridge) la idea de crear un sistema formal que abarcara y fundamentara todo el conocimiento matemático a partir de primeros principios o axiomas, publicando conjuntamente su monumental obra de los Principia Mathematica.


En los Principia, Russell y Whitehead utilizaban un sistema formal de cálculo lógico basado en la notación de Frege y en axiomas escogidos para diferentes áreas de la matemática. El objetivo es fundamentar la aritmética a partir de la teoría de conjuntos y extenderla hasta los números reales. Por ejemplo, véase la siguiente demostración de que 1+1=2   :-)


Este programa de formulación de las matemáticas como sistema axiomático-deductivo se quiso extender también a la fundamentación del conocimiento del mundo físico, dando nacimiento al llamado empirismo o positivismo lógico, desarrollado por el llamado Círculo de Viena.

El enfoque del positivismo lógico era que solamente aportan conocimiento y tienen sentido los enunciados demostrables analíticamente (los de la lógica y matemáticas) o los que son verificables por los hechos (suponían que las teorías científicas lo serían). El resto de los enunciados se deberían desechar como 'metafísica' (término que adquiere un sentido despectivo).

En su vertiente positiva, el empirismo lógico pensaba que uniendo la lógica al método inductivo (la observacíón experimental de secuencias de hechos de los que se extraen reglas o leyes) sería posible fundamentar de forma lógica todo el conocimiento significativo, el de las ciencias.



Sin embargo, nunca se consiguió demostrar cómo se podía construir lógicamente una ley o concepto general a partir de percepciones individuales, si no se aceptaba de entrada la regla que se quería demostrar.

Por otra parte, los enunciados básicos de la propia doctrina positivista eran, según sus propios criterios, inverificables, y por tanto no eran significativos  :-) por lo cual la teoría se cancelaba o negaba a sí misma (otra versión de la paradoja del mentiroso).



La completitud y la consistencia como sustitutos de la verdad


En el camino de formalización del conocimiento matemático se dan diferentes dificultades. Los dos problemas más serios son la indecidibilidad o incompletitud y la inconsistencia. Un sistema formal tiene un problema de indecibilidad cuando existen enunciados formulables en el sistema de los que no se puede demostrar su verdad o falsedad, por lo que también se puede decir que el sistema es incompleto. Por otra parte, la inconsistencia se produce cuando el sistema permite deducir tanto una cosa como la contraria, generando una contradicción.



En algunos casos se ha encontrado que los axiomas propuestos para una rama de las matemáticas eran insuficientes para demostrar o refutar partes de la teoría y debían ser por ello completados con nuevos axiomas, pero sorprendentemente existían varias opciones válidas para hacerlo.

De esta forma, se llega a la conclusión de que la verdad de una teoría matemática es un concepto que es interno a cada sistema, pudiendo existir varias teorías matemáticas incompatibles pero cada una con perfecta coherencia interna, por lo cual no se puede utilizar la correspondencia con la realidad o con nuestra intuición como criterio de corrección de una teoría matemática.



El ejemplo más conocido del nacimiento de teorías incompatibles pero internamente completas y consistentes es el planteado por el quinto postulado de Euclides o axioma de las paralelas. Cuando Euclides formaliza la geometría propone cinco postulados o axiomas base, por ejemplo: "Entre dos puntos cualquiera se puede trazar una recta". Pero su quinto postulado, que dice "Por un punto exterior a una recta, se puede trazar una única paralela a la recta dada" parecía a los matemáticos posteriores demasiado complicado para ser un axioma indemostrable y durante siglos se intentó probarlo a partir de los otros cuatro.

Sin embargo, en el siglo XIX se comprobó que era posible construir otras teorías geométricas (geometrías no euclidianas) cambiando el postulado de la paralela única (1) por un axioma que indica que no es posible ninguna paralela (2), o bien por otro que permite infinitas paralelas (3).


En el siglo XX se demuestra, además, que nuestro espacio-tiempo físico puede responder a cualquiera de los tres tipos de geometría, ya que todos cumplen las ecuaciones de la Relatividad General, y la elección de una u otra depende de la densidad de energía-materia en el universo. No hay una geometría más 'verdadera' que otra, aunque en la práctica una de ellas puede aproximar mejor la forma de nuestro espacio-tiempo particular.


Algo similar sucedió con otro de los problemas planteados por Hilbert, la Hipótesis del Continuo: la suposición de que entre el infinito de los números naturales y el de los números reales no hay otro tipo de infinito intermedio.



Hoy se sabe que esta suposición no se puede probar, sino que debe decidirse arbitrariamente si se quiere añadir a la teoría de números como axioma indemostrable o no.


La paradoja de Russell en la teoría de conjuntos


Al poco de dar Hilbert su lista de problemas, Russell descubrió que la teoría de conjuntos que habían formulado Cantor y Frege en el siglo XIX era inconsistente. Este descubrimiento fue un choque importante para él, porque Russell intentaba fundamentar la teoría de los números naturales sobre el concepto de conjunto, y si éste era inconsistente el edificio entero de la formalización lógica de las Matemáticas se derrumbaba.

La explicación de esta inconsistencia es lo que se conoce como Paradoja de Russell, y ofrece otro ejemplo claro de cómo una teoría se vuelve insostenible cuando se combina la autoreferencia y la negación.


La clave de la paradoja es que la teoría de conjuntos de Cantor y Frege permite formar conjuntos de conjuntos. Esto no parece demasiado problemático, pero aparece un mecanismo de autorreferencia que puede ser recurrente (conjuntos de conjuntos de conjuntos...). La paradoja de Russell surge de la siguiente manera:
  • Llamemos a un conjunto normal si no se contiene a sí mismo. Por ejemplo, el conjunto de libros escritos por Russell, o el conjunto de los conjuntos vacíos (no es vacío, y por tanto no se contiene a sí mismo). Éste es el punto de partida de la paradoja, al combinar la autorreferencia ('contenerse a sí mismo') con la negación.
  • Ahora definamos M como el conjunto que contiene a todos los conjuntos normales.
  • Preguntémonos si M es normal o no.
  • Si M fuera normal, por la definición de 'normal' no se contendría a sí mismo, pero al ser M por definición el conjunto de todos los conjuntos normales, esto implicaría que no puede ser normal, lo que contradice el punto de partida.
  • Por otra parte, si M no es normal, implicaría que sí se debe contener a sí mismo, pero entonces (puesto que M contiene solo conjuntos normales) el conjunto sería normal, contradiciendo otra vez el punto de partida.
Notemos que se llega a una contradicción recurrente, siguiendo el mismo esquema de doble implicación que en la paradoja del mentiroso. De manera formal:


Logicomix dramatiza así el descubrimiento de Russell (pinchad la imagen para ampliarla):


En ocasiones se hace una analogía entre el descubrimiento de Russell y la llamada paradoja del barbero: si el sultán obliga a que los barberos solo afeiten a quienes no se afeitan a sí mismos, ¿quién afeita a los barberos? He aquí una presentación de la paradoja con una solución no muy ortodoxa  :-)


También puede explicarse de forma precisa utilizando el símil de un catálogo en lugar de conjuntos, como explica la siguiente figura.



Una solución incompleta


¿Y cómo solucionó Russell la paradoja? Pues no tuvo otra opción que prohibir la autorreferencia de los conjuntos (evitar que pudieran contenerse a sí mismos). 


Pero como aún necesitaba utilizar conjuntos de conjuntos para su sistema formal, Russell tuvo que definir una jerarquía de tipos de entidades: 1) objetos simples; 2) conjuntos que contienen objetos simples; 3) conjuntos que contienen objetos de tipo 2 ó 1; 4) conjuntos que contienen objetos de tipo 3, 2 ó 1; etc. Esta solución evita que un conjunto de tipo N se contenga a sí mismo, pero es complicada y anti-intuitiva. Sin embargo, era la única forma de mantener consistente la teoría, sacrificando el poder de la autorreferencia. 

Demostrando que esta cuestión de la autorreferencia paradójica es general en los sistemas formales y no exclusiva de la teoría de conjuntos, la misma solución que aplicó Russell tuvo que ser utilizada por Alonzo Church para evitar problemas en el cálculo lambda, que él mismo había inventado para formalizar el concepto de función recursiva.

Pero como veremos en la segunda parte de esta larga entrada, no podemos eliminar siempre la autorreferencia, porque es parte de la capacidad intrínseca y necesaria de los sistemas formales más potentes (como en el caso de la Aritmética), y por tanto no tenemos otra opción que utilizarlos aunque sean demostrablemente incompletos e indecidibles.

Como siempre, Escher plasmó como nadie el concepto de autorreferencia de forma visual en su cuadro Galería de grabados:


Y el siguiente vídeo lo utiliza de manera magistral para mostrar cómo la autorreferencia se convierte en una recursión (visual) infinita...




Hasta la próxima, la segunda y última parte de este recorrido por las paradojas y límites que impone la capacidad de autorreferencia en los sistemas formales.

     Salvador



No hay comentarios:

Publicar un comentario