viernes, 20 de mayo de 2011

La filosofía de la transferencia mental


Introducción

El futurista Arthur C. Clarke es célebre, entre otras cosas, por haber propuesto tres principios de predicción respecto al futuro de las tecnologías[2]. El tercero de esos principios enuncia: “cualquier tecnología suficientemente avanzada es indistinguible de la magia”[3]. Por supuesto, es importante no malinterpretar este principio. Clarke, un racionalista a ultranza, no pretendía reivindicar a magos y hechiceros. Pero, sí confiaba en que el poder de la ciencia fuere tal que, eventualmente, surgirían tecnologías tan asombrosas que terminarían pareciéndose mucho a los prodigios invocados por la magia; la diferencia, por supuesto, radicaría en su sustento racional.

La mayor parte de las religiones promete alguna forma de inmortalidad. No hay buenos motivos racionales para confiar en esas promesas. Pero, quizás el principio de Clarke sea acá relevante. No es descabellado pensar que, quizás en un futuro, lo que ofrezca la ciencia será indistinguible de lo que ha prometido la magia y la religión. Y, el caso de la inmortalidad sería emblemático. Quizás exista la esperanza de que, en algún momento, la ciencia pueda cumplir las promesas de la religión respecto a la vida eterna. En este sentido, podemos tener alguna expectativa de que en el futuro, surgirán un conjunto de tecnologías que nos permitirán ser inmortales. Después de todo, la fuente de la juventud podría dejar de ser una leyenda, y convertirse en una realidad.

De hecho, algunos científicos asoman la posibilidad de que, si algunas teorías de la física son correctas, ya somos inmortales, y por ende, ni siquiera es necesario desarrollar tecnologías que propicien la inmortalidad. La física cuántica, por ejemplo, postula un modelo de la realidad, según el cual existen mundos paralelos que surgen como resultado de un proceso de ramificación de los eventos[4]. Así, cada vez que ocurre un evento, el universo se ramifica, y existe un mundo paralelo con un evento que, en este mundo, pudo haber ocurrido, pero no ocurrió. Por ejemplo, en este momento, decidí escribir estas líneas; pero, pude haber decidido leer un libro en vez. Pues bien, según esta teoría, existe un mundo paralelo a éste, en el cual, en vez de escribir estas líneas, estoy leyendo un libro. Y, así sucesivamente: hay un mundo paralelo donde Hitler ganó la guerra, otro mundo donde la humanidad no vino a existir, etc. Ciertamente se trata de una teoría muy extraña, pero los científicos la debaten y ha ganado auge en algún sector.

Pues bien, si esa teoría es verdadera, entonces podemos afirmar la inmortalidad. Pues, justo en el momento antes de la muerte de una persona, hay una ramificación de mundos. Si, por ejemplo, una persona toma una pistola y decide suicidarse, en un mundo, esa persona deja de existir. Pero, en otro mundo, la persona sobrevive a su propio disparo y sigue viviendo. Y, si de nuevo, en ese mundo, decide suicidarse nuevamente, una vez más habrá un mundo en el cual sobrevive a su intento de suicidio. De esa manera, en un mundo, la persona muere, pero en otro mundo, la persona no muere. Y, así, cada vez que llegue el momento de la muerte para una persona, habrá un mundo en el que no muere. Y, puesto que siempre habrá un mundo en el que la persona no muere, entonces podemos postular que es inmortal, al menos en uno de los mundos. Por supuesto, no debemos dejar de lado el recurrente asunto de la identidad personal: cuando, de un momento a otro, surge un mundo paralelo, ¿cuál de las dos personas (una en cada mundo) es idéntica a la persona en el mundo antes de la bifurcación?

No dediquemos demasiada atención a este asunto, pues el debate respecto a la teoría de los mundos paralelos sigue siendo aún una discusión confinada a los físicos, sobre la cual el laico no puede aprender mucho, menos aún aportar algo significativo. Asumamos que sólo hay un mundo, y en este mundo, eventualmente moriremos.

Pero, la ciencia tiene a su disposición algunos proyectos tecnológicos que, quizás, podrían garantizar la continuidad ininterrumpida de la vida. La mayor parte de estas tecnologías no prometen hacer regresar a la vida a quien ya murió. Para los promotores de estas tecnologías, el muerto, muerto está. En función de eso, la ciencia no ofrece cumplir la promesa religiosa de una vida después de la muerte[5]. Pero, sí podría ofrecer la suspensión indefinida de la mortalidad. Y, en la medida en que se evite la muerte, se habrá alcanzado la inmortalidad. En lo que sigue, evaluaremos el proyecto de la transferencia mental como promesa de la inmortalidad, y sus implicaciones filosóficas.

I. El proyecto de la transferencia mental

Varios científicos han explorado la posibilidad de evitar los procesos de envejecimiento mediante la reparación del deterioro de las células, y con eso, postergar indefinidamente la muerte[6]. Para ello, se ha propuesto el empleo de los avances en la ingeniería genética y la nanotecnología. Hasta ahora, estas propuestas son meramente hipotéticas. Pero, aún en el caso de que no sea posible revertir los procesos de envejecimiento por vía bio-química, o por medio de la reparación nanotecnológica, quizás pueda prescindirse de una solución biológica y buscar suplantar el material orgánico por material sintético. Así, podrían diseñarse órganos artificiales que reemplacen los órganos en mal funcionamiento. Y, en la medida en que se diseñen estos órganos artificiales que cumplan las mismas funciones, las piezas constitutivas del cuerpo humano se podrían regenerar continuamente, y con eso, se podría evitar la muerte[7].

Bajo este proyecto tecnológico, las personas irían reemplazando sus órganos con partes artificialmente diseñadas. Y, la posibilidad de sobrevivir sería convertirse eventualmente en una máquina, la cual, en tanto está compuesta por partes sintéticas no sujetas al mismo tipo de biodegradación que las partes orgánicas, podría continuar su existencia indefinidamente.

La ciencia ficción ha explorado ampliamente este concepto. ‘Cyborg’ es el nombre que los autores de ciencia ficción han empleado para referirse al hipotético organismo compuesto por partes artificialmente diseñadas. Y, desde entonces, se ha visto en el concepto del cyborg un posible camino a la inmortalidad. El futurista e inventor Raymund Kurzweil, por ejemplo, estima que una de nuestras mejores oportunidades para sobrevivir es convertirnos en cyborgs[8].

Pero, ¿conservaría un cyborg su humanidad? ¿Podríamos llamar legítimamente ‘humano’ a un ente que esté compuesto en su mayoría por piezas sintéticas? En realidad, ya los cyborgs existen. Una persona con una pata de palo sería, grosso modo, un cyborg. La pata de palo reemplaza a la pierna orgánica. Pero, también se han diseñado reemplazos o prótesis de órganos con funciones mucho más complejas: calzas de dientes, marcapasos, gafas, audífonos potenciadores del oído, etc.

Obviamente un reemplazo no altera la identidad humana. Una persona con una pata de palo no deja de ser humano por contar con esa prótesis rudimentaria. Pero, si una prótesis no hace una diferencia entre ser humano y no serlo, tampoco haría la diferencia dos, tres, o cuatro prótesis. Entonces, si cambiamos gradualmente los órganos y los sustituimos con prótesis, ¿cuándo dejará de ser una persona para convertirse en una máquina? Con esto, enfrentamos la paradoja sorites[9], y no parece haber solución fácil. Quizás, debamos asumir una solución difícil de asimilar: los seres humanos ya somos máquinas orgánicas. El convertirnos en cyborgs no sería más que una transformación en la constitución material: de ser 100 % orgánicos, pasaríamos a ser 100% sintéticos, pero con todo, conservaríamos la identidad.

Como corolario de la propuesta de convertirnos en cyborgs, el movimiento transhumanista (en especial los eminentes científicos Hans Moravec[10], Marvin Minsky[11]), ha explorado ampliamente el concepto de ‘transferencia mental’, como una otra estrategia para alcanzar la inmortalidad. Ésta consiste en transferir los contenidos mentales, desde el cerebro, a un aparato no orgánico, probablemente algún ordenador muy sofisticado. Así, bajo este concepto, la muerte del cerebro no implicaría la muerte de la persona. Pues, los contenidos mentales de la persona estarían archivados a salvo en el ordenador.

El proyecto consiste en elaborar una emulación completa del cerebro de la persona. Al emularse a plenitud el cerebro de una persona, se reproducirían los contenidos mentales. Si se asume un entendimiento materialista de la mente, los contenidos mentales son producto de la interacción de las neuronas. Así, al emularse la interacción de las neuronas, puede emularse el contenido mental. Y, si bien el cerebro puede morir, su contenido puede salvarse al ser emulado en una máquina que reproduce la información que se aloja en el cerebro.

Esta tecnología asume que la mente es análoga a un software alojado en un hardware, cuyos contenidos pueden reproducirse en otras máquinas. Un software es albergado en un hardware. Pero, bien puede crearse una ‘copia de seguridad’ en otro hardware, en caso de que el hardware original falle, o sea destruido. Si acaso el hardware original es destruido, ello no implicará la destrucción del software, siempre y cuando haya sido guardado a salvo en otra máquina. De la misma manera, el cerebro puede albergar la mente, pero si se crea una ‘copia de seguridad’ de la mente en un ordenador, la muerte del cerebro no implicará la muerte del contenido mental, pues quedará el recurso de acudir a la copia de seguridad.

La creación de la ‘copia de seguridad’ de la mente consiste en emular artificialmente los mismos patrones que las neuronas establecen cuando generan los contenidos mentales. Se han propuesto varios métodos hipotéticos para emprender tal emulación. Se podría, en primer lugar, preservar congelado el cerebro de la persona fallecida, y cortarlo en lonjas muy finas. Esto permitiría un análisis detallado de los puntos de encuentros entre las neuronas, a partir de lo cual podría emularse con un modelo artificial. Al generar ese modelo, se estima, se reactivaría la mente con los mismos contenidos.

O, también podría intentarse elaborar un mapa del cerebro. Las actuales tecnologías permiten elaborar un mapa muy general del cerebro, pero podría quedar la esperanza de que, en un futuro, estas tecnologías radiológicas permitan elaborar imágenes lo suficientemente detalladas como para emular minuciosamente el cerebro. Quizás podría emplearse un procedimiento invasivo nanotecnológico: se introducirían cámaras microscópicas en el interior del cerebro, a fin de que registre la actividad neuronal en detalle, y a partir de la información recabada, podría reconstruirse la totalidad del cerebro.

Por ahora, hay más preocupación en concebir una máquina artificial que tenga la capacidad de almacenar el volumen de datos y emular el grado de complejidad del cerebro humano. En 2005, por ejemplo, se lanzó el proyecto Blue Brain, cuyo propósito es la creación de un ordenador que emule el cerebro de algún mamífero poco complejo[12]. Hasta ahora, con un vasto poder de almacenamiento, el proyecto apenas ha logrado acercarse a emular segundos de la actividad neuronal de un cerebro de mamífero. Pero, de nuevo, si admitimos que la tecnología ha venido creciendo a un ritmo exponencial, quizás en un futuro no muy lejano, esta limitación quede superada.

Así, bajo el proyecto de la transferencia mental, los seres humanos someteríamos nuestro cerebro a la emulación por parte de las máquinas. Nuestros cerebros, constituidos por carbón, eventualmente morirán. Pero, puesto que habremos tomado la cautela de elaborar una copia de seguridad en cerebros artificiales constituidos por silicón (menos sujetos a la biodegradación), la muerte de nuestro cerebro no habrá implicado el fin de nuestra existencia. Pues, seguiremos existiendo con nuestra mente albergada en las máquinas. En otras palabras, nos habremos convertido en robots, y continuaremos nuestra existencia con un cerebro enteramente sintético. Cada vez que los materiales sintéticos de la máquina que alberga la mente necesiten reparación o sustitución, el contenido mental podrá ser almacenado en una nueva copia de seguridad. Y, de esa manera, podremos alcanzar la inmortalidad: no tendríamos necesidad de morir, pues cada vez que el albergue de nuestra conciencia se deteriore, nuestros contenidos mentales podrán ser trasladados a una máquina nueva.

La ciencia ficción recurrentemente ha explorado esta posibilidad. Quizás el ejemplo más emblemático lo hallemos en la taquillera película Avatar: en esa historia, los seres humanos tienen a su alcance la posibilidad de crear sus propios ‘avatares’, robots en los cuales se puede transferir la conciencia.

La hipotética tecnología de la transferencia mental, por supuesto, lleva implícita una serie de supuestos filosóficos respecto a la naturaleza de la mente, los cuales amerita considerar. El proyecto de la transferencia mental reposa sobre un entendimiento funcionalista de la mente. Según esta postura, la mente no es una sustancia inmaterial (algo así como el ‘alma’), ni tampoco es propiamente idéntica al cerebro; antes bien, la mente es idéntica sino a la función que genera el cerebro, pero que también podría generar otra estructura física.

Bajo este fundamento, si una máquina lograre emular los patrones o la función del cerebro, entonces habrá logrado generar una mente. Y, así, se asumen las pretensiones de la inteligencia artificial: puesto que lo constitutivo de la mente no es propiamente el cerebro, sino la función que el cerebro (o cualquier otro artefacto físico que lo pueda emular) desarrolle, entonces los entusiastas de la inteligencia artificial estiman que al menos sí es posible crear una máquina que tenga las mismas funciones mentales de las personas.

El proyecto de la transferencia mental es fundamentalmente un derivado de la inteligencia artificial. Lo que se aspira es crear una máquina que tenga las mismas funciones mentales de las personas; en otras palabras, una máquina que imite al cerebro. Empero, la transferencia mental aspira emular exhaustivamente las funciones de cerebros específicos, al punto de que la emulación permita identificar a la máquina con la persona cuyo cerebro fue emulado.

Ahora bien, el proyecto de la transferencia mental enfrenta dos objeciones filosóficas fundamentales. En primer lugar, es cuestionable hasta qué punto podemos afirmar con propiedad que una máquina pueda alguna vez tener una mente; en otras palabras, ¿podrá una máquina alguna vez ser una persona? Y, en segundo lugar, aun si admitiésemos que, en efecto, una máquina puede tener una mente, también tendríamos que preguntarnos si, al transferir los contenidos mentales a una máquina, esa máquina será idéntica a la persona cuya mente fue transferida.

El primer asunto, a saber, la cuestión sobre si una máquina podrá o no tener una mente, ha sido debatida arduamente entre filósofos, al punto de generar el campo de discusión que ha venido a llamarse la ‘filosofía de la inteligencia artificial’[13]. El primero en preguntarse formalmente si la inteligencia artificial alguna vez podrá estar a la par de la inteligencia natural (es decir, si alguna vez una máquina tendrá mente) fue el matemático Alan Turing[14].

Turing es célebre, entre otras cosas, por haber diseñado el modelo de una máquina que manipularía e interpretaría símbolos, y a partir de eso, podría seguir algoritmos en diversos grados de complejidad. En función de eso, Turing y sus seguidores han estimado que la inteligencia, sea natural o artificial, consiste fundamentalmente en la interpretación y manipulación de símbolos. Al conocer el mecanismo fundamental para la inteligencia, eventualmente podría emularse la inteligencia del cerebro en una máquina.

Con todo, muchos críticos estiman que hay una serie de funciones mentales que las máquinas nunca podrán realizar, cuestión que, a su juicio, es suficiente como para distinguir la inteligencia natural de la inteligencia artificial.

La primera de esas supuestas limitaciones es la habilidad para pensar racionalmente. Pero, si entendemos ‘pensamiento racional’ como la capacidad para resolver problemas con base en decisiones efectivas, resulta bastante obvio que los ordenadores sí piensan racionalmente. Un ordenador puede resolver con una rapidez impresionante problemas lógicos y matemáticos muy complejos. No parece haber motivo por el cual no pueda llamarse ‘pensamiento racional’ a estas funciones.

Se esgrime también que una máquina nunca podrá ser creativa. Pero, de nuevo, esto es discutible. Hay ordenadores que, con una programación sofisticada, pueden llegar a desarrollar creaciones artísticas visuales y auditivas. En vista de esta objeción, Turing aclaraba el entendimiento de ‘creatividad’ y la definía como la capacidad de ‘tomarnos por sorpresa’. Así, para someter a examen la creatividad de una máquina, debemos preguntarnos, ¿puede una máquina tomarnos por sorpresa? Turing estimaba que un ordenador con suficiente capacidad de almacenamiento, podría exhibir conductas contrarias a nuestras expectativas, lo suficiente como para considerarlas ‘creativas’.

Otros críticos de la inteligencia artificial estiman que una máquina nunca podrá tener una consciencia reflexiva sobre sí misma; en otras palabras, un genuino sentido del ‘yo’, como sí lo tenemos los seres humanos. Pero, una vez más, Turing y sus seguidores han disputado esto. A juicio de Turing, es perfectamente viable elaborar un programa algorítmico mediante el cual la máquina pueda reportar sobre sus propios estados. Eso parece criterio suficiente como para afirmar que una máquina sí puede tener consciencia reflexiva.

Como corolario de la objeción anterior, los críticos de la inteligencia artificial han señalado que una máquina nunca podrá tener emociones, es decir, nunca podrá sentir. Ésta es probablemente la objeción más común: quizás las máquinas sí puedan pensar racionalmente, e incluso, tener creatividad, pero nunca podrán tener sentimientos. Con todo, esta objeción es también discutible. Parece viable diseñar una máquina que, en función de los estímulos que reciba, exprese emociones. Podría diseñarse de forma tal que, si la máquina es insultada, exprese palabras de tristeza; si es alabada, exprese palabras de alegría. Por supuesto, en apariencia es fácilmente alegable que una emoción es algo más que la mera expresión de emociones, y que a lo sumo, un computador puede dar la apariencia de tener emociones, pero no podría tenerlas propiamente. Volveremos sobre este punto más adelante.

Aún otros críticos de la inteligencia artificial estiman que una máquina nunca podrá tener libre albedrío. En la medida en que la máquina obedezca a una programación algorítmica, está determinada a comportarse de una determinada manera. Y, en cuanto tal, no tiene autonomía; a saber, el poder de decisión. No obstante, resulta dudoso que siquiera los seres humanos tengamos libre albedrío, pues lo mismo que las máquinas, pareciera que nuestra conducta ya está determinada por las leyes de la naturaleza. A juicio de algunos filósofos, es posible estar determinados y al mismo tiempo ser libres, pero si ese compatibilismo aplica a los seres humanos, entonces también podría ser extensible a las máquinas: un ordenador podría estar determinado y, a la vez, ser libre; en todo caso, necesitaría de un vasto volumen de almacenamiento y complejidad en sus decisiones, lo suficiente como para poder aseverar que, si bien sus decisiones han sido programadas, proceden de un previo examen de la situación.

En todo caso, frente a las objeciones de que las máquinas no podrían elaborar algunas funciones mentales que los humanos sí hacemos, Turing propuso una prueba para algún día poder saber si, en efecto, una máquina es consciente. La prueba es maravillosamente sencilla. Un ser humano entabla dos conversaciones escritas: una con un ordenador, la otra con un ser humano; pero la persona que entabla las conversaciones escritas no sabe de antemano quién es el ordenador y quién es el ser humano. Si, al cabo del desarrollo de las conversaciones, la persona no logra distinguir quién es el humano y quién es la máquina con la cual interactúa, habrá que admitir que la máquina en cuestión es tan consciente como los seres humanos.

Turing propuso esta prueba a mediados del siglo XX. En vista de los grandes avances que se estaban desarrollando en el campo de la informática, Turing predijo que, en cuestión de décadas, una máquina pasaría la prueba propuesta. Con todo, sus predicciones no se han cumplido. Hasta ahora, ninguna máquina ha pasado esa prueba[15].

Los ordenadores han logrado hacer con facilidad funciones que los seres humanos no dominan, como por ejemplo, almacenar enormes cantidades de datos, o elaborar cálculos muy complejos. Incluso, en los inicios de la inteligencia artificial los escépticos dudaban de que algún día una máquina pudiese vencer a un campeón de ajedrez, pero finalmente, en 1997, la máquina Deep Blue, de la compañía IBM, venció al campeón Gary Kasparov[16]. Pero, ninguna máquina ha sido capaz de engañar a un interlocutor y hacerse pasar por un ser humano en una conversación escrita.

Si bien los ordenadores pueden dominar grandes funciones, tienen dificultad en emular las funciones mentales que los humanos dominan desde su más temprana edad[17]. Por ejemplo, no son capaces de distinguir los giros del lenguaje. Un niño hispanoparlante sabe bien que la frase “¿cuándo será el día que arregles tu habitación?” no es propiamente una pregunta que exige como respuesta una fecha específica, sino una queja y una advertencia. Hasta ahora, frente a frases como ésas, los ordenadores tienden más a responder con fechas.

Los avances en la inteligencia artificial han resultado ser más lentos de lo que en un inicio se esperaba, pero eso no impide que algún día, los ordenadores lleguen a cumplir las funciones en las cuales actualmente tienen dificultad. Habrá que esperar un poco más.

No obstante, algunos filósofos han opinado que, aun si una máquina pasare exitosamente la prueba propuesta por Turing, ello no sería demostrativo de que la máquina tiene una mente. Estos críticos estiman que, a lo sumo, una máquina daría el indicio exterior de que está pensando, pero ello no implica que la máquina realmente esté pensando. Así, por ejemplo, cuando a una máquina se le dirigen palabras cariñosas, ésta puede responder enunciando “Te amo”. Pero, el enunciar una frase amorosa no es lo mismo que sentir realmente el amor. La máquina puede dar indicios externos de que atraviesa un estado de amor, sin necesariamente sentir ese estado subjetivo de amor. Igualmente, cuando a una máquina se le pregunta cuál es la raíz cuadrada de 5432 puede responder con asombrosa rapidez, pero eso no implica que esté consciente, como sí lo estamos los seres humanos.

El más representativo de estos críticos de la inteligencia artificial es el filósofo John Searle[18]. Entre otras cosas, Searle ha sido famoso por plantear un experimento mental que, a su juicio, desecha las pretensiones de que, algún día, una máquina pueda pensar. El experimento es el siguiente: imaginemos una persona en una habitación con una puerta. Desde el exterior de la habitación, a esa persona se le pasan fichas con preguntas en el idioma chino. La persona en cuestión no habla chino, pero tiene a su disposición un enorme manual que gira instrucciones respecto a cómo responder a las fichas que recibe. Así por ejemplo, el manual estipula que, al recibir una ficha con algún carácter, se responda con algún otro carácter. Al seguir las instrucciones del manual, la persona en cuestión devuelve sus respuestas al exterior de la habitación. Así, podría llegar a tener una aparente conversación fluida, sin enterarse respecto al contenido de la conversación. Desde afuera, daría la impresión de que la persona dentro de la habitación habla chino. Pero, en realidad, no habla chino, lo único que ha hecho es seguir las instrucciones del manual.

Pues bien, esgrime Searle, algo similar ocurre con la inteligencia artificial. Si una máquina pasare la prueba Turing, daría la impresión de tener una mente. Pero, lo mismo que la persona que da la apariencia de hablar chino, cuando en realidad no hace más que seguir instrucciones, la máquina podría dar la apariencia de tener una mente, cuando en realidad no hace más que correr un algoritmo. Lo crucial, estima Searle, es reconocer que la inteligencia artificial puede desarrollar una sintaxis (a saber, cómo ordenar los símbolos que pautan la actividad mental), pero no propiamente una semántica (a saber, el significado de los símbolos empleados)[19].

La objeción de Searle es interesante, pero no parece del todo convincente. Searle sugiere que la apariencia externa de tener una mente no es garantía de que, en efecto, se tenga una mente, y por ello, el hecho de que un computador parezca inteligente no implica que en realidad esté pensando. Pero, la advertencia de Searle sería perfectamente extensible a los seres humanos: el hecho de que una persona grite cuando es golpeada en la cara, o responda con un nombre cuando se le pregunta cómo se llama, no implica que esa persona en realidad cuenta con una mente. La solución conductista a este problema es que, a lo máximo que podemos aspirar es conocer las conductas, o en todo caso, la manifestación externa del estado mental de otras personas, pero no el contenido mental en sí. Y, al observar las conductas de otras personas, podemos suponer que detrás de esas conductas hay una mente.

Así, cuando una persona grita al ser golpeada, asumimos que esa persona siente dolor. No podemos saber si, en efecto, detrás de ese grito de dolor hay una mente, o si es un mero autómata que está siguiendo algún algoritmo. Pues bien, de la misma manera, cuando una máquina ofrezca indicios de razonamiento (o sentimiento, o creatividad, en fin, cualquier disposición mental), podemos asumir que, en efecto, la máquina posee una mente. No parece haber razón para suponer que las otras personas sí tienen mente, pero las máquinas no. Después de todo, sólo tenemos acceso a sus conductas.

En todo caso, el debate filosófico respecto al alcance de la inteligencia artificial es mucho más complejo de lo que, por razones de espacio, puedo reseñar acá. Pero, frente al proyecto de la transferencia mental, queda todavía una segunda objeción que planteamos anteriormente: aun si admitiéremos que la máquina emuladora del cerebro efectivamente piensa, ¿podríamos legítimamente aseverar que esa máquina es idéntica a la persona cuyos contenidos mentales fueron transferidos? Con esto, enfrentamos el problema de la identidad personal, a saber, ¿bajo qué criterio una persona puede ser considerada ‘la misma’ en momentos diferentes?

Si asumimos un criterio con base en el alma (a saber, una persona sigue siendo la misma si y sólo si conserva la misma alma), entonces la transferencia mental no garantizaría la inmortalidad. Si asumimos que el alma no es idéntica a la mente (y, vale añadir que esto es un asunto muy ambiguo entre las personas que invocan la existencia del alma), entonces la máquina no sería la misma persona que la original. Pues, aun si la máquina tuviere los mismos contenidos mentales de la persona original, no tendría su misma alma, y el alma se asumiría como el elemento constitutivo de la persona.

Por otra parte, si asumimos el criterio corporal (a saber, una persona en un momento es la misma que una persona en otro momento, si y sólo si, comparten el mismo cuerpo), entonces la transferencia mental tampoco garantiza la inmortalidad. Pues, aun si los contenidos mentales son emulados en una máquina, esa máquina no sería idéntica al cuerpo de la persona, y por ende, no se trataría de la misma persona.

No obstante el criterio corporal enfrenta algunos problemas. Al transferir los contenidos mentales, la máquina emuladora del cerebro original adquirirá un sentido del ‘yo’ indistinguible del ‘yo’ de la persona original. Y, en función de ello, parece irrelevante la continuidad del cuerpo; lo relevante sería más bien la continuidad psicológica. La máquina tendrá todos los recuerdos, temores, deseos, ansiedades, conocimientos, etc., que tuvo la persona original. Por ende, pareciera legítimo aseverar que la máquina sería la persona original. Si la persona original cometió algún delito, parece viable aceptar que la máquina emuladora del cerebro puede ser justamente castigada, pues esa máquina perfectamente tiene conciencia de sus actos cometidos.

Hemos visto que quienes defienden el proyecto de la transferencia mental se adhieren a un entendimiento funcionalista de la mente. Si empleamos otra terminología, los entusiastas de la transferencia mental entenderían a la persona como un patrón que genera la organización neuronal. Así, dondequiera que ese patrón neuronal se genere, la persona continuará existiendo. No importa si es con un cerebro hecho con material orgánico, o con una máquina hecha con material sintético; lo importante es el patrón que ese artefacto genere. Y, en ese sentido, aun con un cuerpo distinto (incluso, con un cerebro artificial), la persona en cuestión podrá seguir siendo la misma. En ese sentido, la persona cuya mente ha sido transferida a la máquina, seguiría existiendo, y con eso, se garantizaría su inmortalidad.

Pero, con esto, aparece un nuevo problema. Así como puede transferirse la mente a una máquina, también puede reproducirse en dos, tres o mil máquinas. Y, si coexisten múltiples máquinas, aun con los mismos contenidos mentales, no resulta inteligible de qué manera, todas estas máquinas puedan ser idénticas a la persona original. Pues, estaríamos frente a la violación del principio transitivo de la identidad, según el cual, si A es idéntico a B, y B es idéntico a C, entonces A debe ser idéntico a C.

Supongamos que Joaquín muere, y se transfiere su mente a una máquina, en la medida en que ésta emula su cerebro. Al parecer, esa máquina sería Joaquín, pues tendría continuidad psicológica con él. Cuando se le pregunte a la máquina quién es, responderá que es Joaquín; recordará las vivencias de su infancia, etc. Pero, nada impide que, otras máquinas también emulen el cerebro de Joaquín en el mismo grado. Así, las otras máquinas también tendrían continuidad con Joaquín, y en ese sentido, las otras máquinas también serían Joaquín. Pero, si todas esas máquinas son idénticas a Joaquín, entonces tendrían que ser idénticas entre sí, pues en función del principio transitivo de identidad, si A es idéntico a B, y B es idéntico a C, entonces A es idéntico a C.

Puesto que implica una violación del principio transitivo de identidad, no parece apropiado asegurar que la máquina con los contenidos mentales de Joaquín sería idéntica a Joaquín. En vista de eso, ya no parece tan seguro que la transferencia mental preserve la identidad personal, y que por ende, garantice la inmortalidad.

Como intento de solución a este problema, podría invocarse el principio del continuador más cercano del filósofo Robert Nozick, según el cual el criterio de continuidad psicológica es aceptable sólo si existe un solo pretendiente de la continuidad personal. Así, la máquina sí será idéntica a Joaquín, siempre y cuando no haya otra máquina con la misma pretensión de identidad. Pero, es dudoso que la identidad personal repose sobre las condiciones extrínsecas; antes bien, la existencia o inexistencia de otra máquina parece irrelevante respecto a la cuestión de si la primera máquina es idéntica a Joaquín.

En este sentido, la dificultad respecto al criterio psicológico y el entendimiento de la persona como un ‘patrón mental’ hace pensar que la persona seguirá siendo la misma, si y sólo si, conserva su cerebro original. Cualquier emulación artificial del cerebro sería, a lo sumo, una réplica, pero no la persona original.

Con todo, queda algún consuelo para los entusiastas del proyecto de la transferencia mental. El filósofo Derek Parfit plantea la posibilidad de que no es necesaria la continuidad del cerebro orgánico para asegurar la identidad personal, en apelación a un experimento mental[20]. Supongamos, señala Parfit, que 1% del cerebro de una persona es reemplazado con material sintético. De hecho, algo muy parecido a este tipo de procedimientos ya es realizado con los ‘implantes neuronales’, a saber, artefactos implantados en el cerebro que permiten corregir algunos desórdenes neurológicos. ¿El receptor de estos implantes seguiría siendo la misma persona? Quien defienda que el cerebro orgánico es la base de la identidad personal presumiblemente admitirá que el reemplazo del 1% no altera la identidad personal; de hecho, a muchos pacientes se les ha removido más del 1% del cerebro, y se les sigue considerando la misma persona.

No obstante, presumiblemente, quien defienda que el cerebro orgánico es la base de la identidad personal no admitirá que el reemplazo del 99% de las neuronas con material sintético dejará intacta la identidad personal. Pero, si 1% no altera la identidad personal, y 99% sí la altera, ¿en qué momento una persona deja de ser ella misma a medida que se va reemplazando su cerebro con material sintético? Una vez más, enfrentamos la paradoja sorites, y pareciera que no tenemos una respuesta clara al respecto.

De hecho, el cuerpo humano recicla por completo sus átomos, en un periodo promedio de diez años. Y, la mayor parte de los seres humanos (al menos en la edad moderna) reemplaza su tejido con alguna prótesis sintética (desde una calza en un diente, hasta una prótesis sofisticada en las extremidades). De nuevo, esto conduce a la pregunta: si el complemento de una calza de diente no afecta la identidad personal, entonces ¿por qué no podemos considerar lo mismo respecto al reemplazo sintético del cerebro?

Pues bien, si extendemos este criterio al cerebro, podemos confiar en que un cerebro totalmente sintético sí puede conservar la identidad personal. Pero, para ello, el cerebro sintético debe surgir como resultado del reemplazo gradual del cerebro orgánico. Así, sería necesario que cada célula del cerebro fuese reemplazada por una célula sintética. Al final, se habrá reemplazado la totalidad del cerebro, y se habrá obtenido un cerebro enteramente sintético. Pero, con todo, seguiría siendo el mismo cerebro y, por ende, se trataría de la misma persona. En la medida en que el cerebro orgánico sea reemplazado por el cerebro sintético (y no meramente emulado), se evitaría el problema de la duplicación.

En todo caso, si quedan dudas de que la persona con cerebro sintético sea idéntica a la persona con cerebro orgánico, puede recurrirse al criterio planteado por el mismo Derek Parfit, según el cual la preservación de la identidad no es lo verdaderamente relevante a la hora de considerar las posibilidades de la inmortalidad, o la continuidad de la existencia. A juicio de Parfit, no hay un criterio preciso para la conservación de la identidad personal, y en función de ello, lo realmente relevante es la relación de continuidad psicológica.

Así, en estimación de Parfit, sería suficiente consuelo saber que habrá un cerebro sintético que conservará nuestros contenidos mentales. No debe preocuparnos si, en efecto, habrá duplicados. Lo relevante es que alguien tendrá la misma conciencia que nosotros tenemos. Esta postura no es fácilmente asimilable por la intuición, pues pareciera que termina por implicar que no existe un ‘yo’ con una unidad de experiencias. Pero, para quien esté dispuesto a aceparla, resuelve muchos de los problemas que se plantea a la posibilidad de una inmortalidad con base en la transferencia mental.

Bibliografía

“Blue Brain Project”. En la página web: http://bluebrain.epfl.ch/ Última fecha de consulta: 29-05-10.

CARTER, Matt. Minds and Computers: An Introduction to the Philosophy of Artificial Intelligence. Edinburgh University Press. 2007.

CLARKE, Arthur. Profiles of the Future. Indigo. 2000.

Cryonics: Reaching for Tomorrow. Alcor Life Extension Foundation. 1993

GARRETT, Brian. “Personal Identity”. En: Routledge Encyclopedia of Philosophy. Taylor & Francis. 1998, p. 320-330.

GAZZANIGA, Michael. Human. Harper Perennial. 2008.

GRAY, Chris. Cyborg Citizen: Politics in the Posthuman Age. Routledge. 2001.

HSU, Feng-Hsiung. Behind Deep Blue: Building the Computer that Defeated the World Chess Champion. Princeton University Press. 2002.

KLEIN, Etienne. La física cuántica: una explicación para comprender. Un ensayo para reflexionar. Siglo XXI. 2003.

KURZWEIL, Raymond. Age of Spiritual Machines: When Computers Exceed Human Intelligence. Allen & Unwin. 1999.

MINSKY, Marvin. The Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind. Simon & Schuster. 2007.

MORAVEC, Hans. Robot: Mere Machine to Transcendent Mind. Oxford University Press. 2003.

NOONAN, Harold. Personal Identity. Routledge. 2003.

NOZICK, Robert. Philosophical Explanations. Harvard University Press. 1981.

PARFIT, Derek. “Divided Minds and the Nature of Persons”. En: EDWARDS, Paul (Ed.). Immortality. Prometheus. 1997, p. 312.

PUTNAM, Hilary. Representation and Reality. MIT Press. 1988

SEARLE, John. Minds, Brains and Science. Harvard University Press. 1984.

TIPLER, Frank. La física de la inmortalidad. Alianza. 1996.

TURING, Alan. “Computing Machinery and Intelligence”. En: DAWKINS, Richard (Ed.). The Oxford Book of Modern Science Writing. Oxford University Press. 2008, pp. 305-314.

WILLIAMSON, Timothy. Vagueness. Routledge. 1996


[1] La Universidad del Zulia, Venezuela

Calle 70, Avenida 13A. Residencias “Mi Delirio”. Apt 4 A. Maracaibo, Venezuela

Gabrielernesto2000@yahoo.com

[2] CLARKE, Arthur. Profiles of the Future. Indigo. 2000.

[3] Los primeros dos principios son: 1) Cuando un científico distinguido pero anciando enuncia que algo es posible, tiene razón con casi absoluta certeza; cuando enuncia que algo es imposible, probablemente está equivocado. 2) La única manera de descubrir los límites de lo posible es sobrepasarlos y explorar lo imposible.

[4] KLEIN, Etienne. La física cuántica: una explicación pra comprender. Un ensayo para reflexionar. Siglo XXI. 2003, p. 85.

[5] Con todo, se han explorado dos posibilidades científicas y tecnológicas para una vida después de la muerte, una más seria que la otra. La primera, la más seria, es el proyecto de la criogenia (Cfr. Cryonics: Reaching for Tomorrow. Alcor Life Extension Foundation. 1993). La criogenia es un conjunto de técnicas que se emplean para preservar en congelación los cuerpos de las personas fallecidas; este procedimiento debe emplearse casi inmediatamente después de la muerte de la persona, a fin de evitar la descomposición. En EE.UU., algunos institutos ya preservan cuerpos; quizás el caso más célebre sea el del jugador de béisbol Ted Williams. El propósito de la criogenia es prevenir la descomposición con la esperanza de que, en algún momento, se descubra alguna tecnología para hacer revivir a estos cuerpos. Este proyecto de tecnología presupone que, en realidad, las personas preservadas aún no están ‘muertas’ en pleno sentido. La definición de muerte es sumamente esquiva, peor tradicionalmente se ha entendido como el cese del funcionamiento de los órganos vitales. No obstante, en las últimas décadas, en muchos pacientes el corazón se ha detenido (antaño, un inconfundible signo vital) por unos minutos, pero gracias a la técnicas de resucitación, se ha logrado hacerlo regresar a la vida. Hoy, algunas muertes cardíacas sí son reversibles, pero la muerte cerebral no es reversible. Esto ha obligado a redefinir la muerte en función del cerebro. Pero, así como hoy puede revertirse la muerte cardíaca, los entusiastas de la criogenia confían en que, quizás, en un futuro pueda revertirse la muerte cerebral. Y, mientras se consigue algún mecanismo para lograr esto, estiman necesario conservar a los seres humanos cuyo cerebro ha cesado en sus funciones. En este sentido, los entusiastas de la criogenia, en rigor, no prometen una vida después de la muerte, pero sí estiman que, aquello que llamamos ‘muerte’ en realidad no sea un evento definitivo, sino un cese temporal de la actividad cerebral y que, en un futuro, se logre la tecnología que haga reversible el cese del funcionamiento del cerebro.

El segundo proyecto científico para una vida después de la muerte ha sido explorado por el científico Frank Tipler, en una muy controvertida obra, La física de la inmortalidad (Alianza. 1996). No puedo presumir de comprender a plenitud este libro, pues sus más de quinientas páginas están impregnadas de fórmulas matemáticas y conceptos técnicos que no están dirigidos al lector común, y la obra en cuestión desafía cualquier intento de resumen. Pero, uno de sus argumentos principales es el siguiente: el universo se dirige hacia el Big Crunch; así como el universo tuvo un inicio con el Big Bang, también tendrá un fin con el Big Crunch, toda la materia será comprimida en un punto final. Para ese momento, el nivel de información acumulada por la humanidad habrá sido vasto. Tan vasto será el volumen de información acumulada, que al llegar el final del universo, habrá surgido un punto (al cual Tipler llama el ‘punto Omega’) con las características de omnisciencia atribuidas a Dios tradicionalmente. Desde este punto de recopilación de información, se podrá conocer todos los detalles de las personas que han vivido alguna vez. Y, a partir de esa información, podrá emularse su vida en un gigantesco ordenador. Así, si bien el universo llega a su fin, una máquina podrá emular la resurrección y la vida eterna, en algo así como una realidad virtual a escala cósmica. Y, en esa simulación, todas las personas que alguna vez han vivido, volverán a vivir. De esa manera, esta ‘resurrección’ no sería en el sentido tradicional religioso (pues, en realidad, el cuerpo hecho polvo no regresaría a la vida), pero al menos sí en una simulación. Por supuesto, esto invita a la pregunta en torno a la identidad personal: ¿sería una simulación idéntica a la persona que vivió?; Tipler no parece dedicarle atención a este asunto. En todo caso, en opinión de la mayor parte de la comunidad científica, las tesis de Tipler son harto extravagantes e inaceptables, y parecieran ser más bien un oscuro intento por armonizar las creencias religiosas con los conceptos científicos.

[6] DE GREY, Aubrey y RAE, Michael. Ending Aging: The Rejuvenation Breakthroughs That Could Reverse Human Aging in Our Lifetime. St. Martin's Griffin. 2008.

[7] GRAY, Chris. Cyborg Citizen: Politics in the Posthuman Age. Routledge. 2001.

[8] KURZWEIL, Raymond. Age of Spiritual Machines: When Computers Exceed Human Intelligence. Allen & Unwin. 1999.

[9] Esta paradoja, planteada por Eubulides ( Cfr.WILLIAMSON, Timothy. Vagueness. Routledge. 1996), se refiere a la vaguedad de los términos: al unir dos granos de arena, no estamos en presencia de un ‘montón’. Al unir un tercero, tampoco estamos en presencia de un montón, pues un grano añadido no hace un ‘montón’. Pero, si seguimos así, eventualmente acumularemos millones de granos, en vista de lo cual, sí estaremos en presencia de un ‘montón’. ¿En qué momento preciso empezó a existir el montón?

[10] MORAVEC, Hans. Robot: Mere Machine to Transcendent Mind. Oxford University Press. 2003.

[11] MINSKY, Marvin. The Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind. Simon & Schuster. 2007.

[12] “Blue Brain Project”. En la página web: http://bluebrain.epfl.ch/ Última fecha de consulta: 29-05-10.

[13] CARTER, Matt. Minds and Computers: An Introduction to the Philosophy of Artificial Intelligence. Edinburgh University Press. 2007.

[14] TURING, Alan. “Computing Machinery and Intelligence”. En: DAWKINS, Richard (Ed.). The Oxford Book of Modern Science Writing. Oxford University Press. 2008, pp. 305-314.

[15] GAZZANIGA, Michael. Human. Harper Perennial. 2008, p. 362.

[16] HSU, Feng-Hsiung. Behind Deep Blue: Building the Computer that Defeated the World Chess Champion. Princeton University Press. 2002.

[17] GAZZANIGA, Michael. Ob. Cit., p. 358.

[18][18] SEARLE, John. Minds, Brains and Science. Harvard University Press. 1984.

[19] SEARLE, John. Ob. Cit., p. 34.

[20] PARFIT, Derek. “Divided Minds and the Nature of Persons”. En: EDWARDS, Paul (Ed.). Immortality. Prometheus. 1997, p. 312.

No hay comentarios:

Publicar un comentario