Translate this page

lunes, 19 de mayo de 2014

Transhumanismo e inmortalidad (2/2): qué es la consciencia y cómo reproducirla


Subiendo el disco duro de la mente a la nube: mind uploading


En la entrada anterior vimos que en las fases avanzadas de la evolución transhumana (o posthumana, según se vea) se plantea alcanzar la inmortalidad mediante la transferencia de nuestra identidad a la simulación de un mundo virtual, donde presumiblemente nos encontraríamos con otras conciencias similares a la nuestra, provenientes de otras personas o de inteligencias artificiales.

Este proceso de llevar nuestra mente a un sistema de simulación se ha traducido como transferencia mental a partir del inglés mind uploading. Como vimos anteriormente, se ha tratado con frecuencia en ciencia-ficción y cada vez más en cine y televisión, como en la reciente película Trascendence.

Quizás fue la película Tron en su versión original de 1982, la primera que planteó como argumento central la transferencia de una persona dentro de un ordenador. La escena de la digitalización del protagonista está a partir del minuto 1:00 en este video:


La pregunta es si realmente sería posible en un futuro más o menos cercano realizar esta transferencia mental manteniendo nuestra experiencia subjetiva: seguir siendo conscientes de nuestra identidad, de nuestro cuerpo (simulado) y además interactuar con el entorno y otras personas, mientras seguimos aprendiendo y acumulando nuevos recuerdos.

El planteamiento 'conductista' y Turing


Cuando a mediados del siglo XX se plantean los primeros modelos teóricos de computabilidad y la posibilidad de construir máquinas de computación, surge inmediatamente la cuestión de si una máquina podría llegar a pensar. En este contexto, Alan Turing, el famoso matemático y pionero de la informática, publica en 1950 un artículo llamado Máquinas de Computación e Inteligencia, en el que plantea una alternativa práctica para contestar a la pregunta de si una máquina podría pensar: el Test de Turing.

Lo que Turing viene a decir es que sin una definición clara de qué es 'pensar' resulta difícil contestar a la pregunta de si una máquina podría hacerlo. Incluso si una máquina tuviera consciencia, ¿cómo podríamos estar seguros de ello? Turing razona que en cambio sí podemos llegar a un cierto acuerdo sobre si una máquina se comporta como una persona, si es que llegara el caso en el que no pudiéramos distinguir una de otra. Turing propuso una forma de realizar el test en la cual tanto la computadora supuestamente inteligente como el humano estuvieran en otra sala, y solo pudiéramos juzgar su conducta viendo sus respuestas por escrito a nuestras preguntas.


En este video vemos cómo la idea del Test de Turing se puede extender a la observación del comportamiento de avatares en un videojuego, para intentar determinar si son manejados por un humano o por un programa:


Si somos estrictos, podemos aceptar que una máquina pase el Test de Turing y sin embargo no admitir que pueda pensar o que tenga consciencia. Aunque aún no tenemos una máquina que pase el Test de Turing, hoy en día el objetivo se sitúa ya más allá: no sólo crear algo que se comporte como un ser humano sino que por la forma en que razona y se informa sobre sí mismo podamos decir que piensa y es consciente.

A pesar de esta superación teórica de las ideas de Turing, en la práctica es posible que el matemático tenga al final razón y en nuestra vida cotidiana lleguemos a asignar pensamiento, emociones y consciencia a las máquinas en función solamente de su comportamiento, debido a nuestra tendencia a antropomorfizar otros objetos y medios (ver el libro de Reeves y Nash). Por esta razón hay investigadores que estudian cómo simular las emociones en las máquinas.


Sin embargo, si queremos reproducir nuestra propia consciencia individual en una simulación, no estaremos satisfechos con un mero test verbal para saber si la cosa ha funcionado. Lo que queremos saber es que sentiremos, recordaremos e interactuaremos en la simulación de la misma forma que en nuestra existencia biológica, o mejor.

Por tanto, no se trata solamente de hacer un modelo más o menos detallado del cerebro que responda a los estímulos externos de forma similar (emulación cerebral, o cerebro artificial) sino de reproducir toda nuestra experiencia subjetiva y personal.

La factibilidad de este programa depende de dos supuestos:

  • Supuesto 1 (Materialismo): la consciencia tiene una base meramente físico-química y es explicable mediante la naturaleza bioquímica y la estructura del cerebro humano. Esto no quiere decir que en general podamos identificar los elementos específicos de la consciencia (significados, ideas...) examinando el cerebro, ya que la correspondencia con la estructura cerebral tendría un grado de complejidad muy elevado. Sabemos que en la representación de un objeto, por ejemplo, intervienen muchas neuronas y un número grandísimo de conexiones que de alguna manera codifican aspectos visuales, táctiles, relacionales, etc., del objeto y además su significado viene definido por nuestros recuerdos sobre él, asociaciones con otros objetos, asociaciones lingüísticas, etc. Ver, por ejemplo, este interesante artículo.
  • Supuesto 2 (Funcionalismo): las características que permiten la existencia de una consciencia o mente son estructurales-relacionales, no dependen de que su sustrato material sea el de un cerebro humano, sino que se podrían reproducir en otro sustrato material con capacidades estructurales-relacionales homólogas. Esta es la idea de mente independiente del sustrato, una idea que en Filosofía de la Mente o al hablar del problema mente-cuerpo, se identifica con la etiqueta de Funcionalismo.
Vamos a examinar cada uno de estos supuestos y luego ver si aún admitiéndolos hay una forma razonablemente factible de construir una réplica simulada de una mente.

La mente construida sobre la materia


Durante casi toda la historia de la humanidad se aceptó que había algún elemento no material que explicaba las capacidades únicas de los seres humanos. Cuando con los avances del Renacimiento se comienza a estudiar la anatomía humana y se hace evidente que en buena medida el cuerpo funciona como una máquina biológica, René Descartes formula su visión dualista: el cuerpo y el cerebro están controlados por una sustancia no extensa que interactúa con el segundo a través de la glándula pineal.


Aunque actualmente se mantenga como creencia la existencia del alma, espíritu u otra forma inmaterial, en el ámbito de la ciencia y la filosofía de orientación científica se han eliminado las referencias a entidades inmateriales para explica las características de la mente y la consciencia humana. Algunas de las razones para desechar el dualismo y defender las bases materiales de la mente y la consciencia son:
  • Las funciones de la mente están mediadas químicamente. El descubrimiento del papel de las hormonas y los neurotransmisores, la explicación de los efectos de las drogas en el cerebro, los fármacos contra la depresión, la hiperactividad o la bipolaridad, todos son indicios de que nuestras funciones mentales (ser conscientes, percibir a través de los sentidos, moverse, emocionarse, tomar decisiones...) están todas mediadas químicamente y pueden ser alteradas fácilmente mediante sustancias químicas. Si estas funciones residieran fuera del ámbito puramente material, no tendrían por qué verse afectadas de esa manera.


  • Desaparece la noción de una 'acción incausada', del libre albedrío en sentido estricto. A partir de investigaciones experimentales sobre la realidad y la percepción del tiempo en las acciones humanas, se observa que el proceso de toma de decisiones sucede antes de que nosotros tengamos la percepción de que estamos decidiendo (por ejemplo, los impulsos para mover una mano suceden antes de que nosotros creamos que 'estamos tomando la decisión' de moverla conscientemente). Dicho de otra manera, la decisión se toma de manera inconsciente a partir de una serie de influencias causales en la red de sistemas de decisión del cerebro, y se informa de ello al nivel consciente, el cual reconstruye la secuencia temporal para que parezca que el yo consciente ha tomado la decisión. El modelo de consciencia de Ezequiel Morsella y otros desarrolla recientemente esta visión pasiva de la consciencia. Quizás más adelante dedique otra entrada al problema del libre albedrío, que es complejo, pero desde el punto de vista de la causalidad de las acciones, la situación está clara: si queremos hablar de 'voluntad' tenemos que asignar ésta a operaciones inconscientes del cerebro, aunque nuestro nivel consciente participe en las deliberaciones previas antes de tomar la decisión última.




  • Hay pruebas claras de que el yo no es una entidad indivisible, sino una amalgama de componentes físicamente distribuidos por el cerebro. Tras los intentos de explicación pseudocientífica de la frenología, mediante el estudio posterio de los efectos de las lesiones cerebrales se fueron identificando las funciones generales de zonas concretas de la corteza cerebral y otras partes del encéfalo.

Hoy en día se han llegado a identificar áreas muy pequeñas que realizan funciones muy precisas, como reconocer rostros de personas. Incluso se ha determinado que hay pequeños grupos de neuronas que se activan al reconocer a personas específicas, como en el experimento de la llamada neurona de Jennifer Aniston



  • El fenómeno de las personalidades múltiples, en el que a partir de un trauma infantil se aislan diferentes personalidades como mecanismo de defensa y apoyo, muestra que la plasticidad del cerebro permite incluso albergar diferentes 'yoes' y activarlos o desactivarlos en función de necesidades psicológicas. Antiguamente para explicar este tipo de situación se tenía que recurrir a la idea de 'posesión' del cuerpo por parte de otro espíritu.


Este excelente documental, ganador de un premio Emmy, narra diferentes casos de personalidad mútiple y cómo se producen (lástima que solo lo he encontrado en inglés):


  • Otro argumento claro a favor de la distribución física del yo en el cerebro son los experimentos con cerebros divididos, que se realizaron ya en los años 60 por parte de Roger Sperry y sus colaboradores, y que se han ido generalizando a una concepción modular del cerebro.

En esta conferencia, Michael Gazzaniga, uno de los colaboradores originales de Sperry, describe el modelo actual de la mente como una red distribuida:


Reduccionismo y emergentismo


La identificación de la mente con su base física en el cerebro despierta frecuentemente acusaciones de reduccionismo. Sin embargo, como dice el propio artículo de Wikipedia, "el uso de la reducción no supone necesariamente el reduccionismo. Como cualquier otra herramienta, la reducción puede ser utilizada de manera moderada o radical".

Una postura reductiva diría que los fenómenos que observamos en el nivel alto (por ejemplo, los fenómenos mentales, los organismos vivos, el calor) están causados por entidades de un nivel inferior (neuronas, compuestos bioquímicos y movimientos de moléculas, respectivamente). No hay necesidad de introducir ninguna 'sustancia mágica' ad-hoc para explicar su existencia o propiedades (espíritu inmaterial para el caso de la mente, 'esencia vital' para el caso de los organismos vivos, 'fluido calórico' para el calor).


Pero una postura reductiva no significa necesariamente reduccionismo. El reduccionismo sería afirmar que podemos describir y explicar el nivel superior solamente con categorías y propiedades del nivel inferior. Sabemos que la atmósfera se reduce a moléculas gaseosas, pero a nadie se le ocurre describir los fenómenos meteorológicos utilizando la física molecular. El movimiento de los gases se organiza en estructuras de alto nivel (nubes, viento, frentes, etc.) que son más útiles para describir, explicar y predecir los fenómenos en el nivel superior.


De la misma forma, aunque las entidades de la biología se reducen a las de la química, y éstas a la física, etc., no se puede describir o explicar en la práctica cada nivel desde el inferior.
Una postura compatible con la reducción, pero no reduccionista, es el emergentismo débil. Ésta visión diría que en el proceso evolutivo del universo, la vida y la cultura, se han ido creando sucesivos niveles de organización (espontánea o por selección), y que aunque todo al final esté compuesto de las mismas entidades básicas, lo natural (y lo práctico) es describir y explicar cada nivel son las categorías de organización propias de ese nivel, aunque científicamente podamos ver la relación que lo une con los niveles inferiores.


Desde este punto de vista, la organización de los fenómenos mentales ha ido emergiendo evolutivamente de la estructura de procesamiento de información del sistema nervioso, que a su vez emerge de las neuronas que lo componen. De hecho, esta evolución de millones de años hacia la complejidad ha hecho que el sistema nervioso humano sea el objeto más complejo del universo conocido.


La longitud de los 'cables' neuronales unidos de una persona daría cuatro veces la vuelta a la Tierra. Poseemos unas 100.000 millones de neuronas en el cerebro, un número que es similar al de estrellas que tiene una galaxia como la Vía Láctea, y estas neuronas están interconectadas con 100 trillones de sinapsis, con 1000 interruptores moleculares por sinapsis. Un cerebro humano tiene más elementos de proceso de información que todos los ordenadores y conexiones de Internet de toda la Tierra juntos.

Por cierto, eso de que solo usamos el 10% del cerebro es una de esas leyendas urbanas que se basa solamente en la ignorancia que había hace años acerca de las funciones de ciertas áreas del cerebro:


Aunque podamos comprender las reglas de funcionamiento básico de la mente a partir de las estructuras neuronales, no tiene sentido realizar una descripción completa del estado mental de una persona recurriendo a cómo se encuentra cada sinapsis de cada neurona. Tendría el mismo sentido y la misma dificultad que describir el tiempo que va a hacer mañana describiendo cómo se va a mover cada molécula de la atmósfera. Necesitamos utilizar propiedades y categorías de un nivel más alto.

Sin embargo, como hemos visto en el caso de la 'neurona de Jennifer Anniston', si podremos detectar algunos componentes de los estados mentales viendo el mapa de neuronas activas. En muchos casos necesitaremos conocimiento específico de cómo este mapa está configurado en esa persona en particular.


En su increible libro "Gödel, Escher, Bach", que ya he mencionado en otras ocasiones, Douglas R. Hofstadter muestra la postura del emergentismo débil a través de un cuento en la que una de las protagonistas, Madame Cologne d'Or Migas (una colonia de hormigas) conversa con otros de los personajes mientras éstos observan su funcionamiento interno (los comportamientos de las hormigas), viendo cómo se construyen y fluyen los símbolos e ideas que forman los pensamientos y las acciones de Madame Cologne d'Or Migas.

En este símil de la colonia el cerebro es como un hormiguero, donde las neuronas juegan el papel de las hormigas. Obviamente, las hormigas-neuronas no son inteligentes, no saben cuál es el resultado final de sus acciones desde el punto de vista de la colonia-cerebro, pero eso no quiere decir que no sean ellas (a través de las reglas de comportamiento guiadas por la evolución y el aprendizaje) las que causan la conducta de la colonia-cerebro como totalidad, de la misma manera que durante el desarrollo fetal cada célula embrionaria hace lo que tiene que hacer para dar forma al organismo como totalidad.



El relato de Madame Cologne d'Or Migas esta incluido también en The Mind's I, una recopilación de relatos y artículos que Hofstadter y el filósofo Daniel Dennett recogieron para apoyar su idea de la mente como sistema de computación.


Frente a este 'emergentismo débil', el emergentismo fuerte pretendería que la evolución de los sistemas crea en los niveles superiores estructuras que tienen poder causal sobre los niveles inferiores. Dicho de otra forma, que la mente es la que causaría el comportamiento de las neuronas, no a la inversa. Desde mi punto de vista, esto es como decir que la célula controla la expresión de sus genes o que el viento hace que se muevan las moléculas de aire, o que la evolución de la especie hace que los genes muten de determinada manera. Puede ser útil como forma de hablar, pero no es un reflejo de cómo funciona realmente la causalidad.


Ya hemos visto que en la secuencia temporal de una acción realizada por la mente, el nivel consciente es el último en enterarse, y por tanto no puede ser el que cause la acción por parte de las neuronas que realizan anteriormente el procesamiento inconsciente para tomar la decisión.


Por otra parte, tampoco es necesario caer en el epifenomenalismo, es decir, que la mente es solamente una construcción descriptiva útil pero que no tiene entidad propia ni poderes causales. En el nivel de descripción que le corresponde (cuando hablamos de personas y sus acciones) es legítimo decir que una persona (su mente) decide hacer algo y genera ciertas consecuencias y efectos, igual que es legítimo decir que un cuerpo físico (aunque esté hecho de átomos) causa un movimiento sobre otro.

De esta forma se pueden preservar en un contexto materialista conceptos como la responsabilidad personal y el libre albedrío. Aunque estos sean ilusiones si los observamos desde el nivel de descripción de las neuronas, son elementos necesarios de la descripción del mundo al nivel de las personas.

Por ello, como explica Daniel C. Dennett (de quien hablaré más después) en su libro La Evolución de la Libertad, el determinismo del comportamiento de las neuronas no es incompatible con mantener el libre albedrío como propiedad de la mente como totalidad.


De todas formas, el problema mente-cuerpo es un campo abonado desde hace siglos a la discusión y que no tiene una solución trivial. Os invito a buscar más material sobre este tema (ver, por ejemplo, aquí y aquí) y formaros vuestra propia opinión, aunque a veces el debate entre los filósofos alcanza alturas técnicas difíciles de seguir.

Teorías de la consciencia 


Una vez vistos los argumentos a favor de que la mente, incluida su capacidad de autoconsciencia, tienen su base en la materia y particularmente en la biología del sistema nervioso central, veamos qué explicaciones se han dado acerca de cómo pueden estas estructuras cerebrales formar el curioso fenómeno que experimentamos como consciencia, cómo es posible que nos demos cuenta de lo que nos rodea y de nuestros propios pensamientos y sensaciones.

El mito de la conciencia cuántica

Unas teorías de la conciencia se han apoyado sobre un nivel físico incluso inferior a la estructura de conexiones de las neuronas. Por ejemplo, el físico y matemático Roger Penrose propone que las características de libre albedrío de la mente se fundamentarían sobre la indeterminación e impredecibilidad cuántica de la materia microscópica. Para ello propone una serie de estructuras neuronales (microtúbulos) como sede originaria de la consciencia, que la estructura cerebral explotaría, aunque no está muy claro qué relación hay entre el nivel microscópico y las capacidades generales de la consciencia.




Esta teoría de Penrose está relacionada con una visión más o menos popular que afirma que la consciencia está relacionada con los procesos cuánticos de determinación del estado de los sistemas a partir de su onda de probabilidad (problema de la medida o colapso de la función de onda), constituyendo una especie de misticismo cuántico.

Aunque no haya aún una explicación completa del mecanismo que produce la reducción de la onda de probabilidad en la medida del estado de un sistema microscópico, el hecho de que al final de la cadena de medición esté la consciencia de una persona que recibe la información, no quiere decir que sea esta conciencia la que causa la medida. Esto sería tanto como decir que por que la luz de los objetos llega al final a los ojos, son los ojos los que están generando la luz.


Esta concepción de la conciencia 'cuántica' también se relaciona con una interpretación popular inexacta y en muchos casos pseudocientífica de lo que significa el principio de incertidumbre. Se habla muchas veces de que 'el observador modifica el sistema observado', y por tanto pareciera que la consciencia tuviera un papel en la determinación de la realidad. Sin embargo esta influencia del observador perturbando lo observado no es exclusiva de los procesos cuánticos, sucede también en la física clásica.

Además, en ningún caso puede el observador decidir en qué estado queda lo observado, esto viene dado por las probabilidades azarosas de la mecánica cuántica. Me temo que circulan muchas teorías absurdas en este sentido, que mezclan conceptos científicos reciclados e ideas descabelladas de cosecha propia, o aprovechan la popularidad de la terminología 'cuántica' para dar mayor caché a su negocio pseudocientífico.

En este excelente artículo podéis encontrar una crítica al uso de esta terminología cuántica para explicar lo que no conocemos bien, particularmente en las teorías de la consciencia como la de Penrose, y una crítica general a la manía de los científicos ya mayores que son expertos en un campo determinado de meterse en otros campos científicos para decir tonterías.



La mente como propiedad de la estructura del sistema nervioso

Quizás el primer científico que comenzó a desarrollar una teoría de la consciencia con base biológica fue Gerald Edelman, comenzando en 1987 con su libro "Darwinismo neuronal" y expandiendo posteriormente sus ideas con otros libros técnicos y de divulgación:


Edelman, premio Nobel de Fisiología y Medicina, propone que las características de la consciencia pueden derivarse de la forma en que las neuronas se organizan mediante un mecanismo de competencia darwinista, y en particular se basan en su tendencia a establecer estructuras de reentrada, es decir, bucles de realimentación entre los mapas construidos en el sistema nervioso central para representar diferentes aspectos de la realidad (espaciales, lingüísticos, conceptuales). Estos bucles continuos de neuronas que representan conceptos y relaciones en un nivel alto de abstracción (incluido el concepto del propio yo) es lo que llamamos consciencia.

En la teoría de Edelman cabe la evolución continua de la consciencia en el mundo animal desde formas más sencillas (consciencia primaria) hasta una consciencia superior mediada por el lenguaje, como la nuestra.



Dicho de otra manera, la consciencia sería una serie de bucles continuos que conectan una visión de alto nivel de abstracción sobre lo que pasa en el mundo, en el propio cuerpo y en el sistema nervioso de la persona. En los humanos la parte del cerebro involucrada en estos bucles es sobre todo los lóbulos frontales, donde se evalúan los riesgos y planifican las acciones. 

En los seres humanos buena parte de estos bucles se entrelazan también con la percepción de nuestros propios pensamientos en forma lingüística. En este sentido hay que reconocer el trabajo pionero del bioquímico español Faustino Cordón identificando el pensamiento como una evolución de nuestra capacidad verbal, mediante la cual somos capaces de 'escucharnos a nosotros mismos hablar', como forma de utilizar nuestro conocimiento almacenado lingüísticamente sin necesidad de emitir las palabras vocalmente.


Otro destacado proponente de una teoría puramente neurobiológica de la mente es el premio Nobel Francis Crick, codescubridor de la estructura del ADN. En su libro The Astounding Hypothesis (traducido en España como "La Búsqueda Científica del Alma"). Crick admite que no se dispone actualmente de una explicación completa de la consciencia, pero ofrece algunas ideas de partida basadas en el funcionamiento de la percepción visual.


Aquí tenemos al propio Crick explicándolo. Se pueden activar los subtítulos en inglés, aunque a veces la transcripción no es correcta:


A partir de las propuestas de Edelman y Crick, hay actualmente un cierto consenso científico respecto a la posibilidad de crear modelos basados en la estructura cerebral que expliquen el funcionamiento y características de la experiencia consciente.


La discusión científica y filosófica se centra en este momento no tanto en si la consciencia se genera desde una base biológica, sino en la cuestión de si estas propiedades de la estructura cerebral pueden abstraerse de su sustrato biológico para verse desde un nivel funcional (como 'software' de la mente).

Sin embargo, hay autores como David Chalmers, que aún separan dos niveles de explicación en lo relativo a la mente. Aunque acepta que todas las funciones de la mente y la mayor parte de lo que consideramos consciencia tienen una base biológica (cree por ejemplo, que todos los sistemas que procesan información, por simples que sean, tienen un cierto grado de consciencia), por otro lado Chalmers piensa que el nivel de la experiencia consciente subjetiva no puede ser explicado desde una visión neurológica, proponiendo un 'dualismo naturalista'.


En general, la polémica actual se centra en el supuesto 2: la discusión sobre si la mente puede derivarse de la estructura funcional, de un 'software' cerebral que funciona sobre las neuronas, en lugar de ser específica y única del 'hardware' neuronal, y por tanto si podría llevarse a un sustrato físico diferente como el de un ordenador electrónico.

Uno de los más persistentes críticos del funcionalismo y de la posibilidad de concebir y simular la mente como software es John Searle, el inventor de la metáfora de la caja o habitación china, que mencionaremos después. Searle cree que las propiedades de la mente emergen del sustrato biológico, pero mantiene también que hay aspectos como el significado de los símbolos que manejamos y la experiencia sensorial subjetiva (los famosos qualia) que no pueden explicarse mediante una descripción neurofisiológica o funcional. De hecho Searle critica a todos los que de una manera u otra quieran descifrar lo que él llama 'el misterio de la consciencia'.


Funcionalismo y software mental

La idea funcionalista de la mente ha pasado por diversas fases, defendida por científicos y filósofos cercanos a la informática y la teoría de la información, contendiendo con severas críticas desde diferentes campos, incluyendo neurobiólogos como Edelman que a pesar de coincidir en la base biológica de la mente niegan que ésta pueda concebirse como un software susceptible de simulación y que piensan que la conciencia es inseparable de las características de su sustrato neural.

Sin embargo, a pesar de las críticas la visión funcionalista se va imponiendo con los avances de los modelos computacionales que replican funciones como el aprendizaje, la memoria, la percepción visual y el lenguaje. En mi opinión, el rechazo que suscita el funcionalismo entre algunos autores se debe en parte a que el concepto de 'mente como software' resulta equívoco y muchas veces basado en versiones un tanto anticuadas de lo que significa 'inteligencia artificial', que la conciben basada exclusivamente en conceptos de alto nivel (lenguaje, reglas...), o en la comparación inconsciente con el tipo de software al que todos estamos acostumbrado, y que evidentemente dista mucho de ser inteligente o consciente.



La idea básica de la que parte el funcionalismo es sencilla. Las neuronas funcionan como pequeños procesadores que calculan una señal de salida por sus axones a partir de sus entradas provenientes de otras neuronas o de los estímulos proporcionados por los sentidos, una función de cálculo que cambia según el aprendizaje y la memoria, procesos en los que se reconfiguran las conexiones.

Por tanto el cerebro puede verse como ejecutando un gigantesco (increíblemente complejo) programa de cálculo en paralelo. La parte de este programa que se refiere a los bucles autorreferentes que forman el nivel consciente sería el software que define el funcionamiento de la consciencia.


Las diferencias y discusiones entre diferentes versiones del funcionalismo, y entre los funcionalistas y sus críticos, se deben muchas veces a la confusión o énfasis en diferentes niveles de abstracción del programa mental. Por ejemplo, la Inteligencia Artificial clásica y los modelos cognitivos de la mente basados en ella utilizan solamente funciones de software de muy alto nivel, como el procesamiento de símbolos lingüísticos y almacenamiento de conceptos. De esta manera son fácilmente atacables por argumentos como el de la habitación china de Searle. Una máquina puede manejar símbolos y generar salidas más o menos compatibles con el test de Turing, pero obviamente sigue sin 'entender' esos símbolos como lo hacemos nosotros.


Pero observemos que esta crítica es susceptible a cambios según la escala del modelo. En el cerebro humano las neuronas obviamente no comprenden los símbolos que representan y procesan, y sin embargo el sistema en su totalidad sí lo hace. Así que la crítica de la habitación china no tiene porqué ser aplicable a un sistema muy complejo con diversos niveles de organización y representación, incluyendo la autorepresentación.

En el otro extremo de la IA clásica está el conexionismo, que defiende que el software del cerebro se construye con las funciones de bajo nivel de procesamiento de las neuronas, que aprenden y se autoorganizan para reconocer, recordar y calcular. El conexionismo defiende que estos procesos no se pueden realizar con una computación basada en reglas simbólicas, oponiéndose de esta manera a la visión de la Inteligencia Artificial clásica. Pero, por otro lado, solamente con esta visión de bajo nivel de neuronas y sinapsis no podemos derivar las funciones y conceptos de alto nivel que elabora la mente humana, igual que no resulta factible describir el tiempo atmosférico utilizando el nivel de las moléculas del aire.




La solución al dilema entre el alto nivel cognitivo y el bajo nivel de procesos neuronales es reconocer que hay una jerarquía de niveles de procesamiento entrelazados, con funciones cercanas a las redes neuronales simples en los niveles inferiores, y en los niveles superiores funciones más cercanas a lo que serían reglas de lógica difusa sobre conceptos abstractos. Esta complejidad a diferentes niveles es muy difícil reproducir en la práctica, pero sería capaz de explicar las propiedades de la mente utilizando las de un software increíblemente complejo, y en teoría podría ser replicada si fuera posible reproducir tal software.




Un filósofo contemporáneo decididamente funcionalista es Daniel C. Dennett. Ya hemos comentado su trabajo con Douglas Hofstadter para explicar cómo las propiedades mentales pueden emerger a partir de una estructura compleja y cómo defiende la compatibilidad del determinismo y del libre albedrío en cierto sentido.


En su libro La Consciencia Explicada, Dennett presenta su modelo funcionalista de la consciencia y cómo se relaciona con la evolución biológica.


En esta reciente conferencia, Dennett expone sus ideas de una forma sencilla:


Replicando el software de la mente


Si aceptamos la visión funcionalista de que las propiedades mentales y de la consciencia vienen dadas por la estructura de elementos del sistema nervioso y las funciones que calculan estos elementos (con posibles modulaciones adicionales debidas al entorno químico, como en el caso de las drogas que afectan al funcionamiento de los neurotransmisores), podemos extraer las siguientes conclusiones:
  • Al igual que en un programa complejo de ordenador, el software mental puede tener varios niveles de abstracción, subrutinas y funciones anidadas unas dentro de otras, según las jerarquías enlazadas que hemos visto antes. Por ejemplo, la función 'ser consciente de lo que me rodea' se descompondría en módulos que ejecutarían funciones para la percepción visual, auditiva, etc. y mantendrían mapas mentales del espacio, personas y otros agentes activos. A su vez cada canal de percepción se basaría en varios procesos paralelos. Por ejemplo, en el sistema visual se procesan por separado el movimiento, el color y la forma. Así se llegaría hasta los niveles más bajos donde pequeños grupos de neuronas realizan funciones sencillas como detectar líneas verticales, detectar caras y reconocerlas, etc.
  • Si replicáramos las mismas funciones de cálculo en otro soporte físico (una simulación informática) y les proporcionáramos entradas de estímulos similares a las que se encontraría una persona en el mundo real (incluyendo información sobre su propio cuerpo), tendríamos respuestas y estados internos idénticos a los del software mental, y por tanto, tendríamos una simulación de la mente original.
La clave cuando nos planteamos la replicación del software mental con el objetivo de realizar un 'clon virtual' de la mente de una persona específica y nos enfrentamos a la complejísima jerarquía de funciones interrelacionadas es ¿hasta qué nivel de detalle es necesario replicar estas funciones? Teniendo que cuenta que necesitamos:
  • Que se sigan reproduciendo las propiedades mentales, incluyendo la consciencia.
  • Que se preserven las características distintivas de la persona en particular (sus conocimientos, recuerdos, creencias, tendencias, estilo cognitivo, personalidad, estilo de movimiento físico...)
  • Que sea capaz de seguir aprendiendo y adquiriendo nuevos recuerdos. 

Modelando de arriba a abajo (top-down)

La aproximación más clásica para replicar las funciones de un cerebro humano sería hacer 'ingeniería inversa', igual que cuando intentamos comprender cómo funciona una máquina: vemos cuáles son sus partes y cómo se conectan, y así luego podemos intentar replicarlas.

Aunque hemos visto más arriba que comenzamos a conocer los grandes bloques funcionales del cerebro, la complejidad de las interconexiones es tan grande que desenmarañar todos los componentes, incluso únicamente a la escala de milímetros, va a llevar un tiempo y unos recursos considerables.


La siguiente imagen, publicada en National Geographic, es solo una primera aproximación al problema. Representa el conocimiento general de las conexiones cerebrales de alto nivel disponible actualmente (por ejemplo, las líneas rosas y anaranjadas son vías neuronales relacionadas con el lenguaje).


Los objetivos del proyecto Conectoma y la iniciativa BRAIN son similares en cierta forma a los proyectos de genoma humano: su objetivo es crear un mapa genérico más o menos detallado del cerebro, pero la complejidad y la variabilidad de las conexiones cerebrales son mucho mayores que la del ADN humano.

Sin embargo ni siquiera estos proyectos no llegarán a obtener el suficiente detalle como para elaborar una simulación detallada. Por ejemplo, solo verán si existen fibras -grupos de conexiones- o no en un área, pero no veremos las conexiones ni sinapsis individuales, qué fuerza tienen, qué función matemática ejecutan, y mucho menos cómo cambian con el tiempo. Con suerte nos servirán para elaborar un mapa genérico del esquema de fibras neuronales de un humano-tipo, pero sabemos que hay grandes variaciones por sexo, cultura, y no digamos individualmente en la escala de detalle necesaria para replicar las características, creencias, recuerdos, etc. de una persona concreta.


Aún así, los proyectos del conectoma pueden suponer un primer paso, y los mapas genéricos que consigan son necesarios para organizar y quizás simplificar los futuros modelos de personas individuales, igual que el genoma humano genérico ha servido para deinirr las partes del ADN que necesitamos secuenciar para distinguir individuos específicos.


En este video del programa Redes, uno de los responsables del proyecto Conectoma, Sebastian Seung, quien ha popularizado la frase "Yo soy mi conectoma", habla de sus objetivos y esperanzas:




Modelando de abajo a arriba (bottom-up): redes neuronales

La aproximación preferida por los proponentes de la 'transferencia mental' es diferente: hacer un modelo completamente detallado de la red de conexiones de un individuo específico en el nivel de las sinapsis neuronales y llevarlo a una simulación que las reproduzca. De esta forma no tendríamos que preocuparnos por las estructuras de alto nivel del cerebro, y en teoría capturaríamos todos los recuerdos y características particulares del individuo.

En este vídeo podemos ver un resumen del funcionamiento de la red neuronal en nuestro cerebro:



Desde hace décadas se han desarrollado modelos matemáticos y computacionales relativamente sencillos de redes de neuronas que se han utilizado con éxito para construir sistemas computacionales que aprenden a reconocer o controlar objetos o patrones específicos para aplicaciones en visión por computador, reconocimiento del lenguaje, etc.


Se han creado modelos de redes neuronales artificiales más complejos para intentar reproducir algunos aspectos del funcionamiento de sistemas nerviosos reales. Por ejemplo, en el proyecto OpenWorm se ha simulado en detalle el sistema nervioso de un nemátodo, que consta de 300 neuronas, sobre todo para estudiar sus mecanismo de locomoción:


Uno de los supercomputadores más potentes del mundo, la serie Blue Gene de IBM, ha simulado una red tan compleja como medio cerebro de ratón a una velocidad igual a una décima parte de la real. Posteriormente ha simulado también el volumen equivalente a un cerebro de gato (4,5% de la complejidad de un cerebro humano). Sin embargo, estas simulaciones se refieren únicamente a aspectos del comportamiento eléctrico de las neuronas que pueden ser útiles para estudiar ciertas enfermedades relacionadas con la transmisión de los impulsos nerviosos, como la enfermedad Parkinson, pero no mucho para simular las funciones reales del sistema nervioso.


Como continuación, el proyecto Blue Brain pretende ahora simular un modelo más parecido a las neuronas biológicas, comenzando en una primera fase por una columna cortical, la unidad funcional de bajo nivel en la corteza visual de un mamífero.


Basándose en las mismas ideas, la Unión Europea ha lanzado el Human Brain Project para construir una infraestructura de computación y software para modelar el cerebro, principalmente con fines médicos.


Otra vía de investigación práctica es el desarrollo de chips neuromorfos que intentan replicar en el hardware las características de las neuronas, de manera que sea mucho más eficiente su simulación en paralelo. Sin embargo esta investigación está en una fase muy temprana y no está claro si estos chips reproducirán aspectos de la función neuronal esenciales para los modelos capaces de sustentar funciones cerebrales superiores, y qué potencia de cálculo tendrán.


Por ahora el fabricante de chips Qualcomm está desarrollando con fines comerciales chips que simulan de forma simplificada ciertas funciones de las redes neuronales, pensados para aplicaciones de aprendizaje y control.


Sin embargo, es evidente que ni siquiera los más grandes supercomputadores son aún suficientes para abarcar la simulación del sistema nervioso de un sólo ser humano. La cantidad de memoria necesaria para el almacenamiento y la capacidad de procesamiento requerida para la simulación son enormes.

Las estimaciones de cuándo un ordenador alcanzará la potencia necesaria varían entre pocos años y un siglo.

Cómo obtener el modelo de un humano

Asumiendo los principios del funcionalismo y suponiendo que dispusiéramos de un modelo suficientemente detallado y de la enorme capacidad de almacenamiento y cálculo necesarias, el otro elemento tecnológico que necesitaríamos para llegar a la transferencia mental sería un sistema capaz de escanear la estructura detallada del sistema nervioso de una persona concreta que quisiéramos reproducir virtualmente.


Como hemos visto, los sistemas actuales de escaneado por resonancia magnética DTI recogen ya el movimiento de fluidos en las fibras nerviosas. Existen otros métodos de captura como la resonancia funcional, que da pistas de la actividad general de las neuronas en un área, pero ninguno de estos métodos ofrece el detalle requerido para ver las conexiones individuales y sus propiedades dinámicas.


Por otra parte, estos sistemas de escaneado no destructivo son muy útiles para obtener un conocimiento general del cerebro y su actividad. Se están usando actualmente para investigar enfermedades como Alzheimer o el autismo, como puede verse en el maravilloso vídeo que sigue, donde se examinan partes del cerebro de un niño de siete años con autismo:


Para conseguir más detalle necesitamos por el momento utilizar un método de escaneado destructivo que requiere acceder directamente al cerebro, cortarlo en finas lonchas y analizarlo. Un ejemplo es este método desarrollado en la Universidad de Stanford, capaz de llegar al nivel de las sinapsis y la configuración de receptores y emisores de neurotransmisores.

El siguiente vídeo muestra el increíble detalle y belleza de los resultados (en el cerebro de un ratón):


En Harvard han desarrollado un método similar con el MIT:


Suponiendo que el objetivo del escaneado sea preservar nuestra vida mediante una simulación virtual, seguramente sea 'aceptable' la destrucción del cerebro para poder escanearlo con suficiente detalle. Pero, ¿es esta la única opción?

Raymond Kurzweil, el visionario profeta del transhumanismo, ha propuesto un método de escaneado basado en nanorobots que circularían por nuestro cuerpo y nuestro cerebro, digitalizando todos los detalles necesarios. Pero esta es una idea cuya realización involucraría superar problemas que aún están lejos de nuestro alcance, y no está tan claro que unos sencillos nanorobots pudieran realizar todas las tareas necesarias (por ejemplo, necesitarían un sistema de transmisión para comunicar sus datos al exterior, identificando su posición y orientación en el espacio).


En todo caso las tecnologías de escaneado del cerebro humano se están convirtiendo en una de las áreas de investigación más activas, con congresos y revistas científicas dedicadas exclusivamente a este tema, por no hablar de los grandes proyectos con enorme financiación que hemos comentado, así que cabe esperar grandes progresos en los próximos años.


Por otra parte, en el pasado ha habido predicciones demasiado optimistas respecto a otros campos como la inteligencia artificial así que, aunque seguramente habrá avances importantes, no debemos subestimar las dificultades de abordar un sistema con un grado de complejidad tan importante como la mente humana. Esta es la crítica que hace Paul Allen, legendario fundador de Microsoft y a quien nadie puede acusar de no ser un visionario innovador. Según él, la Singularidad no está tan cerca como dicen los transhumanistas.


Conectar el modelo mental con un cuerpo y mundo virtuales


Para replicar una conciencia humana de forma artificial en un mundo virtual no solamente sería necesario reproducir con fantástica fidelidad su sistema nervioso, sino también el cuerpo. Aunque en la ciencia ficción y en las películas es frecuente la suposición de que el cuerpo puede cambiarse, conectarse y desconectarse a diferentes mentes (en los filmes casi siempre con fines cómicos), la realidad es que se está descubriendo que el cuerpo y la mente son muy interdependientes.

Todo lo que aprendemos sobre el espacio, el movimiento, el control de los objetos, la relación física con otras personas, es a través de nuestro cuerpo específico. Nuestro sistema nervioso sabe de cada uno de nuestros músculos, cómo responde, qué tensiones soporta, etc. No es tan fácil desacoplar la mente del cuerpo.

Por otra parte, el sistema nervioso debe recibir también estímulos del mundo exterior que estén de acuerdo con sus acciones sobre él. Por ejemplo, si decidimos enfocar los músculos del cristalino a una distancia determinada, las neuronas que terminan en la retina deben recibir estímulos luminosos simulados correspondientes a rayos de luz virtuales que inciden en las direcciones correctas, o si estamos caminando en forma virtual debemos recibir sensaciones de presión adecuadas en los nervios simulados de la planta del pie, de las articulaciones y de todos los órganos del cuerpo que resultan 'sacudidos' por el movimiento. Lo mismo para los demás sentidos.


Simular todo un mundo virtual y la interacción de una persona consciente con ese entorno y con otros humanos es una tarea al menos tan difícil como la propia simulación mental, y multiplica por un factor aún más grande los recursos computacionales necesarios. Muchas de las técnicas necesarias para simular aspectos visuales y sonoros de un mundo virtual se han desarrollado para videojuegos, pero el factor de detalle requerido sería muchísimo mayor:


Además, la simulación de la estructura mental no sería estática, sino que debe permitir que esta estructura cambie en función de las nuevas experiencias virtuales, para que éstas sean almacenadas como nuevos recuerdos y aprendamos de ellas igual que en la realidad.

Igual que en algunas de las simulaciones neuronales complejas que hemos comentado, existe la posibilidad de utilizar más tiempo que el real para hacer la simulación. Por ejemplo, para simular un segundo de 'vida virtual' podemos utilizar un año de tiempo de un supercomputador. Los que vivan en el mundo virtual no notarían esta diferencia, pero incluso utilizando este truco tardaremos aún muchos años en disponer de la potencia informática necesaria. Serán necesarios grandes avances en nanotecnología para crear sistemas de computación que sean varios órdenes de magnitud más compactos y rápidos que los actuales.

¿Quién quiere vivir para siempre?


Sean cuales sean las dificultades filosóficas y tecnológicas, la carrera hacia la inmortalidad cibernética está en marcha y se van creando proyectos, comunidades, institutos de investigación, fundaciones e incluso empresas con ese objetivo en mente (nunca mejor dicho).



Quizás nosotr@s no lleguemos a verlo, pero es posible que nuestr@s hij@s o niet@s vivan en un mundo donde esta posibilidad se convierte en algo real, y tengan que enfrentarse a los debates éticos, políticos y económicos que suscitará. Tendrán que tomar partido y quizás elegir entre seguir siendo humanos de carne y hueso, o algo diferente.

Para finalizar, por cortesía de Juan Diego Jaén, que me la recordó...


Hasta la próxima,

    Salvador