628
Sobre
el Futuro de la Humanidad
Proemio
Futurología: la ciencia de la
predicción
¿Existe un método
racional para pronosticar los sucesos por venir? La respuesta es sí: éste es un
breve encuentro con la futurología.
Muchas de las predicciones en el
tiempo se vinculan con la ficción, el folklore y la mitología, con creencias
religiosas o con prácticas adivinatorias. Pero, ¿existe un método racional para
pronosticar los sucesos por venir? La respuesta es sí: éste es un breve
encuentro con la futurología.1
¿Qué nos lleva, como especie, a
lanzar la mirada hacia el futuro?
La motivación más obvia para
preocuparse por él, quizá, sea la supervivencia: la propia, la de la
descendencia, del grupo humano más próximo y, en un alcance más amplio, la de
la humanidad como especie. Al escudriñar en los secretos del tiempo, intentamos
eliminar la incertidumbre que causa aquello que no podemos ver, y prever —es
decir, «ver antes»— las condiciones favorables y adversas que imperarán, con el
fin de llevar a cabo, en el presente, las acciones adecuadas para hacerles
frente.
Hagamos un paralelismo burdo: al consultar el pronóstico del tiempo —que no es
sino la proyección de las condiciones meteorológicas actuales— para saber si
usar ropa ligera o cargar con abrigo y paraguas, estamos sacando un provecho
práctico e inmediato de ese atisbo que alguien hizo del futuro. Pero no nos
confundamos: los alcances de la futurología son muchos más amplios y
aventurados.
Una breve historia de la
futurología
Empecemos por definir qué se
entiende por futurología: es la ciencia —o el arte, según algunos— que
pretende, valiéndose solamente de métodos científicos y racionales, identificar
y evaluar los sucesos futuros posibles, probables y deseables. Tomando esto en
cuenta, la clarividencia, la lectura de bolas de cristal, la astrología, los
presentimientos y cualquier práctica esotérica, no entran en este terreno;
tampoco entran las predicciones a corto plazo —por ejemplo, en el ramo
financiero— ni las que se basan en modelos matemáticos relativamente simples
—como el movimiento de los astros o el ya mencionado pronóstico del tiempo.
Fue el visionario escritor H. G.
Wells quien, en 1932, hizo la primera referencia a los estudios académicos
sobre el futuro, y acuñó el término foresight2 —«previsión»—. El
término futurology
—«futurología»— fue acuñado en los años 40 por Ossip K. Flechtheim, quien la
concebía como una rama de la probabilidad y estadística. En lengua inglesa,
este término está siendo sustituido por otros como futuring, future studies, futures research, futuristics
o futurics. Por otro
lado, desde el punto de vista académico —y para los fines de este artículo—,
además de referirse a una corriente artística,3 futurismo designa a
la doctrina que aboga por un pensamiento racional, científico o basado en el
sentido común, cuyo fin último es el de producir un futuro «mejor» por medio de
la toma de decisiones.
Llegado este punto, es posible detectar dos grandes líneas de pensamiento con
respecto al futuro:
*aquella que considera un solo futuro, monolítico, casi inexorable o
matemáticamente calculable a través de la proyección de las tendencias y los
patrones de cambio del presente, y que, por decirlo de alguna manera, «ya está
ahí y sólo es cuestión de tiempo llegar a él»; *y la que considera diversos
futuros posibles y que, mediante la identificación de posibilidades y
probabilidades, propone acciones alternativas que nos llevarán a un futuro
mejor o «más deseable».
A partir de estas dos líneas de pensamiento ha tenido lugar una multitud de
métodos para anticipar, evaluar, predecir y configurar el futuro.
https://algarabia.com/futurologia-la-ciencia-de-la-prediccion/
Desarrollo
-I-
Michio Kaku
a).El futuro de la humanidad
La colonización de
Marte, los viajes interestelares…
El
último libro de Michio Kaku.
Un
relato sobre galaxias, tecnología y el futuro de la humanidad.
Nuestra existencia está amenazada:
las glaciaciones, los impactos de asteroides, la capacidad finita de la Tierra e incluso la lejana
pero inevitable muerte del Sol son riesgos de tal magnitud que, si no
abandonamos la Tierra,
deberemos asumir la idea de nuestra extinción. Por eso, para Michio Kaku
nuestro destino yace en las estrellas, no por la curiosidad o la pasión
aventurera que los humanos llevamos dentro, sino por una simple cuestión de
supervivencia. En El futuro de la humanidad, el Dr. Michio Kaku explora
los pasos necesarios para lograr este ambicioso objetivo, y describe las
tecnologías que nos permitirán colonizar y terraformar otros planetas, así como
explorar las infinitas estrellas del universo. A lo largo de estas páginas
aprenderemos sobre robots autorreplicantes, nanomateriales y cultivos de
bioingeniería que nos permitirán abandonar nuestro planeta; sobre naves
nanométricas, velas láser, máquinas de fusión ram-jet, motores antimateria y
cohetes hiperimpulsores que nos llevarán a las estrellas, y las tecnologías radicales
que alterarán nuestro cuerpo para poder sobrevivir al largo y agotador viaje
hacia la conquista del espacio.
En este fascinante viaje, el autor
superventas de El futuro de nuestra mente atraviesa las fronteras de la
astrofísica, la inteligencia artificial y la tecnología para ofrecer una
maravillosa visión del futuro de la humanidad.
La crítica ha dicho...
«El interés mundial en el lanzamiento que llevó a cabo Elon Musk de un de sus
vehículos Tesla al espacio, nos muestra como los viajes espaciales han vuelto a
convertirse en un entretenimiento de masas y puede que a una aspiración para
las masas. Es un buen momento para un libro del físico teórico Michio Kako
sobre los posibles caminos de nuestro futuro como viajeros espaciales. [...]
Con una facilidad y claridad admirables, el Dr. Kaku repasa la historia de la
cohetería, la formación de los planetas y explica cómo podríamos colonizar no
solo Marte sino que también algunas de las lunas de Júpiter y Saturno. [...]
Este libro tiene un entusiasmo infeccioso y candente.»
https://www.penguinlibros.com/es/ciencia-y-tecnologia/11768-libro-el-futuro-de-la-humanidad-9788499928364#
b).El futuro de la humanidad, según Michio Kaku
Cuando soñamos con el futuro de la
humanidad lo hacemos con la imaginación de Julio Verne, de H.G Wells, de Sagan,
de Asimov, de Arthur C. Clarke, con la de Liu Cixin los más avanzados. ¿Quién
no ha leído algún libro de estos genios? La ciencia ficción es la entrada a lo
especulativo, la puerta a lo que sin existir todavía se nos explica por
adelantado. El ciberpunk fue barruntado por Philip K. Dick… y Ridley Scott lo
convirtió en “Blade Runner”. La mente sintetizada se crea con el ciberespacio
del “Neuromante” de William Gibson. ¡Muchos de los dispositivos que usamos
ahora nacieron de sus inspiraciones!
En el siglo XXI necesitamos nuevos
intérpretes, unos que acaricien el arpa de Orfeo (por lo de amansar a las
fieras y reunir a los hombres a su alrededor) y yo creo que uno de ellos es Michio Kaku.
Michio es un ser híbrido: de origen japonés y budista, aunque educado en un
entorno occidental. Quizá por este singular encuentro de civilizaciones, unido
a una inteligencia prodigiosa, se explique su comportamiento. Vivaz, ágil y
entretenido en su comunicación, a diferencia de las ideas comunes que tenemos
sobre los científicos, es toda una estrella de rock, una estrella nacida del
laboratorio mental de la teoría de cuerdas. Un físico que se ha propuesto
construir un nuevo tipo de ciencia ficción que nos ayude a entender lo
que viene. Un influencer
de la próxima humanidad.
No conozco a Michio personalmente,
pero me lo imagino un pelín abstraído, pensando en el próximo hombre que nos
sucederá. Su propuesta es simple y contagiosa, y dice que solo evitaremos
nuestra extinción como especie si salimos al espacio, si somos capaces de
abandonar el planeta (esto también lo decía Stephen Hawkings).
Lo ha explicado en su libro, El
futuro de la humanidad, “The future of humanity”, que es una especie de manual
práctico sobre un eventual camino para abandonar el planeta y los avances
científicos en los que deberíamos apoyarnos para conseguirlo: desde la
construcción de un robot y una nave interestelar, hasta el encuentro con otras
civilizaciones. Hay quien lo ve como un Nostradamus un tanto forzado… y se
ríen. Yo, sin embargo, lo
entiendo más como
aquel que señala y nos agita.
Seguramente sus predicciones nos
suenen rocambolescas: atascos en la luna, la industria pesada
fuera del planeta, robots más inteligentes que un mono… y la vida digital
eterna. Podemos ignorarlo, burlarnos de lo que dice o escucharlo con curiosidad.
Particularmente me seduce sobre
todo la cuestión de la vida digital eterna. En su libro “La física del futuro”
dijo que “a menudo la gente rechaza los avances tecnológicos […] cuando la
tecnología contradice la naturaleza humana.” A esto lo han llamado la teoría
del hombre de las cavernas y, según Michio, “al producirse un conflicto entre
la tecnología moderna y los deseos de los primitivos antepasados, estos últimos
siempre ganan”. Es como si nuestro cerebro primitivo y nuestros antepasados
tribales y cavernícolas continuaran susurrándonos a la oreja “¡cuidado con lo
desconocido!”.
El futuro es así, un poco inasible,
un poco fake
y, claro
está, en constante reinvención. Pero si hemos llegado
hasta donde estamos es
gracias a estas mentes audaces, a ensoñadores como Michio Kaku
(o como Tesla, o como Ramón y Cajal), que se abrieron paso entre
las incertidumbres de su tiempo y nos contagiaron su curiosidad. No creo en un futuro de la humanidad
apocalíptico, no creo en un mundo en tinieblas con crisis
humanitarias, con zombis y falta de recursos. No creo en un futuro distópico
repleto de violencia. No me gusta esa ciencia-ficción. No me gusta ese
transhumanismo. Creo en un
hombre que sabrá zafarse de estas calamidades y hacerse un camino,
y quizá alcancemos finalmente algo parecido a la vida eterna digital porque tal
vez nuestra conciencia del tiempo, los viajes, la vida y la muerte hayan
cambiado. El hombre de hace doscientos años apenas llegaba a los cuarenta,
viajaba fundamentalmente a pie y seguramente nunca abandonaba su comarca.
¡Quién habría imaginado la vida actual!
Llamadme ingenuo. Los ingenuos
somos un tanto idealistas: queremos construir una senda que conduzca a la mejor
humanidad. Por eso recomiendo leer a Michio y reflexionar sobre estos nuevos límites.
Kaku, M. (2018). El
futuro de la humanidad. La colonización de Marte, los viajes interestelares, la
inmortalidad y nuestro destino más allá de la tierra. Barcelona: Debate.
Este profesor e investigador, buen
divulgador, de reconocido prestigio internacional, nos ofrece un relato bien fundamentado de
las respuestas presentes y futuras (con mayor probabilidad) de la ciencia ante
la gran pregunta que nos afecta a los humanos, por el hecho de serlo:
¿cuál será el futuro más
probable para la humanidad? El subtítulo especifica más
concretamente los núcleos esenciales a los que está dedicada esta obra, que se
sintetizan en que nuestro
destino puede ubicarse más allá de la tierra. De ahí que esté
estructurada en tres grandes apartados: salir
de la tierra, viaje a las estrellas y la vida en el universo.
El Prólogo comienza así: Un día, hace unos 75.000 años, la humanidad
estuvo a punto de extinguirse. Oportuno aviso para navegantes,
sobre todo cuando más del 99% de todas las formas de vida en la tierra se han
extinguido: la extinción es,
por consiguiente, la norma. De hecho, nuestro planeta ya ha
sufrido cinco grandes ciclos
de extinción, con la desaparición de hasta un 90% de los seres
vivientes en cada una de ellas. Es altamente probable (las leyes de la
física así lo atestiguan) que haya más (aunque muy lejano, uno de ellos
será la transformación del sol en una gigantesca estrella roja, acabando así
con la tierra). Parece, por tanto, inevitable que tarde o temprano nos veamos
en la necesidad de hacer frente a algún acontecimiento capaz de llevarnos a la
extinción, sobre todo por nuestra insensatez
y falta de visión (calentamiento global, guerra nuclear,
superpoblación,…). Hemos, pues, de estar preparados para ello y uno de nuestros
mejores aliados, si no el mejor, lo podemos encontrar en el
correspondiente conocimiento
proporcionado por la ciencia. Eso es lo que precisamente nos
ofrece aquí Kaku (en sus Agradecimientos hace referencia a más de una decena de
premios Nobel, además de otros muchos grandes científicos, especializados en
diversas materias: física, ingeniería, informática, genética, astronomía, cosmología,
química, neurociencia, biología,…).
Si miramos hacia atrás en el tiempo, la ciencia es
el mejor relato posible para responder a las grandes preguntas sobre nuestro
origen (teoría de la evolución)
y el de nuestro universo (teoría del big
bang), siendo conscientes de que ambas teorías están sujetas a
evaluaciones científicas permanentes, pues esta es la esencia de la
propia ciencia. Las teorías se mantienen como válidas si son capaces de ofrecer
la mejor explicación posible de la realidad a la que se refieren, en
comparación con las otras alternativas teóricas posibles (derivadas de la
propia ciencia o de versiones extracientíficas) y hasta no encontrar hechos o
datos que las contradigan.
En el presente, estamos siendo testigos de un cambio cuyas
implicaciones no cabía imaginar hasta ahora: el paso de la evolución no dirigida –ciega– (somos su fruto, sin
ningún tipo de intervención por nuestra parte) a la evolución dirigida por los
humanos, gracias a nuestros conocimientos científicos actuales (y futuros)
sobre nuestra naturaleza y la del propio cosmos. La primera evolución ha
necesitado un tiempo inmenso, en la segunda los cambios se irán produciendo a
velocidades vertiginosas, comparativamente hablando.
De cara al futuro, aplicando los avances previsibles de las
ciencias (conocimiento de lo que realmente es la materia y energía oscuras, los
agujeros negros, la unificación de la relatividad y la mecánica cuántica en una
gran teoría -si fuera posible-, la verificación de la validez de la teoría de cuerdas,
el multiverso, los agujeros negros y de gusano, …) y de las tecnologías
(inteligencia artificial, nanotecnología –ascensores
espaciales-, biotecnología…), hemos de ir preparando la
habitabilidad de otros lugares (la luna –gasolinera
cósmica-, marte –Jardín
del Edén-, las lunas de los gigantes gaseosos –Europa y Titán-,
otros exoplanetas…), terraformándolos.
Para ello hemos de ayudarnos de robots autorreplicantes, rayos láser gigantes (laserportación), aeronaves
con estatorreactores de fusión, máquinas de antimateria, velas solares,
nanonaves, entre otros muchos nuevos y revolucionarios artefactos. A su vez,
también podemos llevar las correspondientes modificaciones humanas (desacelerar
o incluso detener el proceso de envejecimiento, inmortalidad digital, transhumanismo…) para la
adaptación a los nuevos entornos tan diferentes a los de nuestro planeta
(inmensas distancias interplanetarias, diferente gravedad, mayores niveles de
radiación, temperaturas extremas,…). Ni que decir tiene que nuestra perspectiva
temporal para poder ver todo ello hecho realidad no es inmediata. Hemos de
asumir un horizonte amplio de uno o dos siglos.
El libro es un magnífico fruto de
la buena imaginación y del conocimiento científico pertinente, muy bien escrito
y documentado, y que es puesto al servicio del futuro de la humanidad.
https://acipe.es/el-futuro-de-la-humanidad
-II-
a).El
Instituto para el Futuro de la Humanidad
—FHI, siglas en inglés—
El futuro de la humanidad en sus
manos
Un equipo de expertos investiga en
un Instituto de Oxford los riesgos de extinción del ser humano
Necesitamos sabiduría para enfrentar el
futuro. Para saber si los progresos tecnológicos de vanguardia van en la
dirección adecuada o no; si favorecen al ser humano o todo lo contrario. Para
tener una idea de qué hacer si se presentan escenarios que ponen en riesgo la
supervivencia de la especie, como los derivados de la amenaza nuclear, la
modificación de microbios letales o la creación de mentes digitales más
inteligentes que el hombre. A reflexionar sobre este tipo de cuestiones se
dedican un puñado de cerebros en un lugar ubicado en Oxford y llamado el Instituto para el Futuro de la Humanidad.
Al frente de un heterodoxo grupo de
filósofos, tecnólogos, físicos, economistas y matemáticos se encuentra un
filósofo formado en física, neurociencia computacional y matemáticas, un tipo
que desde su adolescencia se encontró sin interlocutores con los cuales
compartir sus inquietudes acerca de Schopenhauer, un sueco de 42 años que se
pasea por las instalaciones del Instituto con un brebaje hecho a base de
vegetales, proteínas y grasas al que denomina elixir y que escucha audiolibros
al doble de velocidad para no perder un segundo de su preciado tiempo. Se llama
Nick Bostrom, y es el autor de Superinteligencia: Caminos, Peligros,
Estrategias, un libro que ha causado impacto, una reflexión acerca
de cómo afrontar un futuro en que la inteligencia artificial supere a la
humana, un ensayo que ha recibido el respaldo explícito de cerebros de Silicon
Valley como Bill Gates y Elon Musk, de filósofos como Derek Parfit o Peter
Singer, de físicos como Max Tegmark, profesor del Massachusetts Institute of
Technology. Un trabajo que, además, se coló en la lista de los libros más
vendidos que elabora The New York
Times Book Review. La
ONU le reclama para que exponga su visión, sociedades
científicas como The Royal Society le
invitan a dar conferencias, una
de sus charlas TED lleva ya contabilizados más de 1.747.000 visionados. Y
Stephen Hawking ya ha alertado al mundo: hay que tener cuidado con la Inteligencia Artificial.
El Instituto para el Futuro de la Humanidad —FHI, siglas
en inglés— es un espacio con salas de reuniones bautizadas con nombres de
héroes anónimos que con un gesto salvaron el mundo —como Stanislav Petrov,
teniente coronel ruso que evitó un incidente nuclear durante la Guerra Fría— donde
fluyen las ideas, los intercambios de impresiones, donde florecen hipótesis y
análisis. Sobre todo, por las tardes-noches: el jefe es, como él mismo
confiesa, un noctámbulo; se queda en la oficina hasta las dos de la madrugada.
“En el momento en que sepamos cómo hacer
máquinas inteligentes, las haremos”, afirma Bostrom, en una sala del Instituto
que dirige, “y para entonces, debemos saber cómo controlarlas. Si tienes un
agente artificial con objetivos distintos de los tuyos, cuando se vuelve lo
suficientemente inteligente, es capaz de anticipar tus acciones y de hacer
planes teniendo en cuenta los tuyos, lo cual podría incluir esconder sus
propias capacidades de modo estratégico”. Expertos en Inteligencia Artificial
que cita en su libro aseguran que hay un 90% de posibilidades de que entre 2075
y 2090 haya máquinas tan inteligentes como los humanos. En la transición hacia
esa nueva era habrá que tomar decisiones. Inocular valores morales a las
máquinas, tal vez. Evitar que se vuelvan contra nosotros.
A analizar este tipo de supuestos y
escenarios se dedica este hombre que en estos días lee intensivamente sobre machine learning (aprendizaje automático, rama de la inteligencia artificial
que explora técnicas para que las computadoras puedan aprender por sí solas) y
economía de la innovación. Para Bostrom el tiempo nunca es suficiente. Leer,
leer, leer, asentar conocimientos, profundizar, escribir. “El tiempo es
precioso. Es un bien de gran valor que constantemente se nos desliza entre los
dedos”.
La gente
parece olvidar la guerra nuclear. Un cambio para mal en la geopolítica podría
ser un peligro
Estudiar, formular hipótesis,
desarrollarlas, anticipar escenarios. Es lo que se hace en este Instituto donde
se cultiva la tormenta de ideas y la videoconferencia, un laberinto de salas
dominadas por pizarras velleda
con diagramas y en cuyo pasillo de entrada cuelga un cartel que reproduce la
portada de Un mundo feliz,
la visionaria distopía firmada por Aldous Huxley en 1932. Un total de 16
profesionales trabajan aquí. Publican en revistas académicas, hacen informes de
riesgos para compañías tecnológicas, para gobiernos (por ejemplo, el finlandés)
o para la ONU,
que se dispone a crear su primer programa sobre Inteligencia Artificial —uno de
cuyos representantes andaba la semana pasada por las oficinas del FHI—. Niel
Bowerman, director adjunto, físico del clima y exasesor del equipo político de
Energía y Medio Ambiente de Barack Obama, explica que en el instituto siempre
estudian cómo de grande es un problema, cuánta gente trabaja en él y cómo de
fácil es realizar progresos en esa área para determinar los campos de estudio.
Bostrom es el hombre que comanda el
Instituto, el que decide por dónde se transita, el visionario. Desarrolla su
labor gracias al impulso filantrópico de James Martin, millonario interesado en
las cuestiones de los riesgos existenciales del futuro que impulsó el FHI hace
diez años para que se estudie y reflexione en torno a aquellas cosas en las que
la industria y los gobiernos, guiados por sus particulares intereses, no tienen
por qué pensar.
Al filósofo sueco, que formó parte en 2009
de la lista de los 100 mayores pensadores globales de la revista Foreign Policy, le interesa
estudiar, sobre todo, amenazas lejanas, a las que no le gusta poner fecha.
“Cuanto más largo sea el plazo”, dice, "mayores son las posibilidades de
un escenario de extinción o de era posthumana”. Pero existen peligros a corto
plazo. Los que más le preocupan a Bostrom son los que pueden afectar
negativamente a las personas como las plagas, la gripe aviar, los virus, las
pandemias.
En cuanto a la Inteligencia Artificial
y su cruce con la militar, dice que el riesgo más claro lo presentan los drones
y las armas letales autónomas. Y recuerda que la guerra nuclear, aunque tiene
pocas probabilidades de llegar, sigue siendo un peligro latente. “La gente
parece haber dejado de preocuparse por ella; un cambio para mal en la situación
geopolítica podría convertirse en un gran peligro”.
“Hay una
carrera entre nuestro progreso tecnológico y nuestra sabiduría, que va mucho
más despacio”
La biotecnología, y en particular, la
posibilidad que ofrece el sistema de edición genética CRISPR de crear armas
biológicas, también plantea nuevos desafíos. “La biotecnología está avanzando
rápidamente va a permitir manipular la vida, modificar microbios con gran
precisión y poder. Eso abre el paso a capacidades muy destructivas”. La
tecnología nuclear, señala, se puede controlar. La biotecnología, la
nanotecnología, lo que haga alguien un garaje con un equipo de segunda mano
comprado en EBay, no tanto. Con poco se puede hacer mucho daño.
Superada su etapa transhumanista —fundó en
1998 junto a David Pearce la Asociación Mundial Transhumanista, colectivo que
aboga de modo entusiasta por la expansión de las capacidades humanas mediante
el uso de las tecnologías—, Bostrom ha encontrado en la Inteligencia Artificial
el terreno perfecto para desarrollar su trabajo. La carrera en este campo se ha
desatado, grandes empresas —Google compró en 2014 la tecnológica DeepMind— y
Estados pugnan por hacerse con un sector que podría otorgar poderes inmensos,
casi inimaginables.
Uno de los escenarios que proyecta en su
libro, cuya versión en español publica el 25 de febrero la editorial Teell, es el
de la toma de poder por parte de una Inteligencia Artificial (AI, siglas en
inglés). Se produce una explosión de inteligencia. Las máquinas llegan a un
punto en que superan a sus programadores, los humanos. Son capaces de mejorarse
a sí mismas. De desarrollar grandes habilidades de programación, estratégicas,
de manipulación social, de hacking.
Pueden querer tomar el control del planeta. Los humanos pueden ser un estorbo
para sus objetivos. Para tomar el control, esconden sus cartas. Podrán
mostrarse inicialmente dóciles. En el momento en que desarrollan todos sus poderes,
pueden lanzar un ataque contra la especie humana. Hackear drones, armas. Liberar robots del tamaño
de un mosquito elaborados en nanofactorías que producen gas nervioso, o gas
mostaza.
Esta es simplemente la síntesis del
desarrollo de un escenario. Pero, como decía la crítica de Superinteligencia de la revista The Economist, las
implicaciones de la introducción de una segunda especie inteligente en la Tierra merecen que alguien
piense en ellas. “Antes, muchas de estas cuestiones, no solo las del AI, solían
estar en el campo de la ciencia ficción, de la especulación”, dice Bostrom,
“para mucha gente era difícil de entender que se pudiera hacer trabajo
académico con ello, que se podían hacer progresos intelectuales”.
El libro también plantea un escenario en que
la
Inteligencia Artificial se desarrolla en distintos sectores
de manera paralela y genera una economía que produce inimaginables cotas de
riqueza, descubrimientos tecnológicos asombrosos. Los robots, que no duermen,
ni reclaman vacaciones, producen sin cesar y desbancan a los humanos en
múltiples trabajos.
— ¿Los robots nos enriquecerán o nos
reemplazarán?
— Primero, tal vez nos enriquezcan. A largo
plazo ya se verá. El trabajo es costoso y no es algo deseado, por eso hay que
pagar a la gente por hacerlo. Automatizarlo parece beneficioso. Eso crea dos
retos: si la gente pierde sus salarios, ¿cómo se mantiene? Lo cual se convierte
en una cuestión política, ¿se piensa en una garantía de renta básica? ¿En un
Estado del Bienestar? Si esta tecnología realmente hace que el mundo se
convierta en un lugar mucho más rico, con un crecimiento más rápido, el
problema debería ser fácil de resolver, habría más dinero. El otro reto es que
mucha gente ve su trabajo como algo necesario para tener estatus social y que
su vida tenga sentido. Hoy en día, estar desempleado no es malo solo porque no
tienes dinero, sino porque mucha gente se siente inútil. Se necesitaría cambiar
la cultura para que no pensemos que trabajar por dinero es algo que te da
valor. Es posible, hay ejemplos históricos: los aristócratas no trabajaban para
vivir, incluso pensaban que tener que hacerlo era degradante. Creemos que las
estructuras de significado social son universales, pero son recientes. La vida
de los niños parece tener mucho sentido incluso si no hacen nada útil. Soy
optimista: la cultura se puede cambiar.
A Bostrom se le ha acusado desde algunos
sectores de la comunidad científica de tener visiones demasiado radicales.
Sobre todo, en su etapa transhumanista. “Sus visiones sobre la edición genética
o sobre la mejora del humano son controvertidas”, señala Miquel-Ángel Serra,
biólogo que acaba de publicar junto a Albert Cortina Humanidad: desafíos éticos de las tecnologías emergentes. “Somos
muchos los escépticos con las propuestas que hace”. Serra, no obstante, deja
claro que Bostrom está ahora en el centro del debate sobre el futuro de la Inteligencia Artificial,
que es una referencia.
— ¿Proyecta usted una visión demasiado
apocalíptica en su libro de lo que puede ocurrir con la humanidad?
— Mucha gente puede quedarse con la
impresión de que soy más pesimista con la
AI de lo que realmente soy. Cuando lo escribí parecía más
urgente tratar de ver qué podía ir mal para asegurarnos de cómo evitarlo.
— Pero, ¿es usted optimista con respecto al
futuro?
— Intento no ser pesimista ni optimista.
Intento ajustar mis creencias a lo que apunta la evidencia; con nuestros
conocimientos actuales, creo que el resultado final puede ser muy bueno o muy
malo. Aunque tal vez podríamos desplazar la probabilidad hacia un buen final si
trabajamos duramente en ello.
— O sea, que hay cosas que hacer. ¿Cuáles?
— Estamos haciendo todo lo posible para
crear este campo de investigación de control problema. Hay que mantener y
cultivar buenas relaciones con la industria y los desarrolladores de
Inteligencia Artificial. Aparte, hay muchas cosas que no van bien en este
mundo: gente que se muere de hambre, gente a la que le pica un mosquito y
contrae la malaria, gente que decae por el envejecimiento, desigualdades, injusticias,
pobreza, y muchas son evitables. En general, creo que hay una carrera entre
nuestra habilidad para hacer cosas, para hacer progresar rápidamente nuestra
capacidades tecnológicas, y nuestra sabiduría, que va mucho más despacio.
Necesitamos un cierto nivel de sabiduría y de colaboración para el momento en
que alcancemos determinados hitos tecnológicos, para sobrevivir a esas
transiciones.
https://elpais.com/elpais/2016/02/12/ciencia/1455304552_817289.html
b). Instituto del Futuro
de la Humanidad
El Future of Humanity Institute
( FHI , Institute for the Future of Humanity ) es un centro de
investigación interdisciplinario de la Universidad de Oxford , dedicado a
cuestiones sobre la humanidad y su futuro. Fue fundada en 2005 como una unidad
de la Facultad
de Filosofía y la Oxford Martin School (en)
. Dirigido por el filósofo Nick Bostrom , su equipo de investigación incluye al
futurista Anders Sandberg (en) ,
el ingeniero K. Eric Drexler , el economista Robin
Hanson y Toby
Ord , fundador de Giving What We Can .
Compartiendo premisas y trabajando
en colaboración con el Centro para el Altruismo Efectivo , el objetivo
del Instituto es orientar la investigación hacia el mayor bien para la
humanidad a largo plazo; participa en actividades académicas, pero también en
la promoción de discusiones y análisis informados dentro de organizaciones
gubernamentales, comerciales y de otro tipo.
Histórico
Nick
Bostrom estableció el Instituto en noviembre de 2005 como una unidad de Oxford Martin School (
entonces James Martin 21st Century School). Entre 2008 y 2010, la FHI fue sede de la Conferencia Global sobre Riesgo de Desastres ,
escribió 22 artículos para revistas académicas y publicó 34 capítulos en
trabajos colectivos; Los investigadores de FHI han sido mencionados más de
5,000 veces en los medios de comunicación, y ha brindado análisis y
asesoramiento al Foro Económico Mundial , organizaciones
privadas y sin fines de lucro, como la Fundación MacArthur y la Organización Mundial de la salud
), así como al gobierno. organizaciones en Suecia, Singapur, Bélgica, Reino
Unido y Estados Unidos. Nick Bostrom y el bioeticista Julian Savulescu (en)
también publicaron Human Enhancement en marzo de 2009. Más
recientemente, FHI se ha centrado en los peligros de la inteligencia artificial (fuerte). En
2014, sus investigadores publicaron varios libros sobre los riesgos creados
por la IA,
incluidos Smarter Than Us , de Stuart Armstrong, y Superintelligence:
Paths, Dangers, Strategies , de Nick Bostrom.
Riesgos
existenciales
Artículo principal:
Riesgo de catástrofe planetaria .
Los temas más amplios estudiados
por la FHI son
los riesgos de catástrofes planetarias
y, en particular, los “riesgos existenciales”. En un artículo de 2002, Nick
Bostrom define un riesgo existencial como "un evento
que aniquilaría la vida inteligente en la Tierra o reduciría drástica y permanentemente su
potencial" . Esto engloba escenarios en los que la humanidad, sin
ser destruida, no logra colonizar el espacio y utilizar los recursos
del universo observable, como expone Bostrom en 2003 en su artículo sobre el costo de las oportunidades perdidas .
En su libro de 2008, Global
Catastrophic Risks , Bostrom y Milan Ćirković reúnen ensayos sobre muchos
riesgos de desastres, naturales y provocados por el hombre. Riesgos naturales,
tales como súper-volcánica
, impactos
cósmicos , o eventos astronómicos muy energéticos tales como explosiones de rayos gamma o supernovas ,
presentar un riesgo bajo y bastante bien entendida, por lo que el FHI está
interesado principalmente en los riesgos. Las tecnologías como mundial el calentamiento , la
guerra nuclear o los riesgos que presentan las nanotecnologías
y la inteligencia artificial , así como las pandemias
que podrían provocar armas biológicas . Los investigadores de FHI también
han estudiado el impacto del progreso tecnológico en las sociedades e
instituciones, desde el totalitarismo hasta el aumento del desempleo y los riesgos de la
información.
Razonamiento
antropogénico
Artículo detallado : Principio antrópico .
El FHI presta mucha atención a las
amenazas exóticas que han sido poco exploradas por otras organizaciones, y a
las consideraciones metodológicas para predecir y reducir los riesgos
existenciales. Particularmente, el Instituto insistió en la importancia en este
contexto del " razonamiento antrópico " , un
campo aún poco explorado y con implicaciones epistemológicas muy generales.
Entre los argumentos antropogénicos
investigados por el FHI, el argumento del apocalipsis afirma que
la humanidad debería extinguirse pronto, porque lo más probable es que los
humanos que viven ahora estén cerca de la mitad de la distribución de humanos
que habrá existido. Nick Bostrom también ofreció el "argumento
de la simulación" , que sugiere que si nuestras posibilidades de
evitar los riesgos existenciales son altas, es probable que estemos viviendo en
una realidad simulada .
Otro tema recurrente entre los
investigadores de FHI es la paradoja
de Fermi , es decir, la sorprendente ausencia de civilizaciones
extraterrestres observables. Robin Hanson dedujo de esto la existencia de un " gran filtro " que impide la
colonización del espacio, filtro que podría haber actuado en el pasado (si la
inteligencia es mucho más rara de lo que pensamos) o en nuestro futuro (si los
riesgos existenciales son lo suficientemente altos) .
Transhumanismo
y racionalidad
Estrechamente vinculado al
trabajo
de FHI en la evaluación de los riesgos de las nuevas
tecnologías está el
trabajo sobre las promesas y los peligros de las mejoras humanas .
Estas modificaciones pueden
ser biológicas, sociológicas o utilizar recursos
informáticos; los estudios se
centran en los supuestos más radicales, más que en el
progreso previsible a
corto plazo. Así, la investigación de FHI en
bioética
estudia las posibles consecuencias de la terapia génica , pero
también de los implantes cerebrales e interfaces neuronales ,
así como de la descarga de la mente .
FHI también se ha centrado en
métodos para evaluar y mejorar la inteligencia y la racionalidad, con el fin de
dirigir y acelerar los avances sociales y tecnológicos. El trabajo de FHI sobre
las fuentes de la irracionalidad, como la heurística del juicio y los
sesgos cognitivos , incluye en particular la colaboración continua con Amlin (en) para el estudio de los riesgos sistémicos que surgen del sesgo
en los modelos utilizados.
https://es.frwiki.wiki/wiki/Future_of_Humanity_Institute
-III-
¿Hacia un futuro transhumano?
El transhumanismo es un movimiento
intelectual que propone superar los límites naturales de la humanidad mediante
el mejoramiento tecnológico y, eventualmente, la separación de la mente del
cuerpo humano. Si bien ha sido históricamente marginal y sectario, sus planteos
de medicina mejorativa, su materialismo radical, incluso sus controvertidas
ideas de eugenesia, inmortalidad y singularidad adquieren creciente interés en
un momento en el cual la tecnología amenaza con avanzar sobre esferas de la
vida humana hasta ahora en apariencia intocables.
En noviembre de 2018, el científico
chino He Jiankui anunció en Hong Kong que había editado genéticamente a dos
gemelas para inmunizarlas contra el virus de inmunodeficiencia humana (vih). El experimento no había sido publicado por ninguna
revista especializada ni autorizado por la Universidad de Shenzhen, en la que He
investigaba. La comunidad científica reprobó en bloque la práctica y el
gobierno chino condenó a He, que estuvo desaparecido unos meses y hoy se
sospecha que cumple arresto domiciliario sin cargos en su oficina de Shenzhen.
Como 20 años atrás con la
clonación, el escándalo de He reeditó la discusión sobre los límites de la
ciencia, pero el contexto mundial es otro. Aquel optimista consenso liberal de
los años 90 dio lugar al estancamiento occidental y a la emergencia de China
como amenaza, pero también como modelo exitoso de capitalismo iliberal. La
tentación de rebasar tecnológicamente las barreras humanistas para gobernar más
o producir mejor es hoy mayor. Sin ir más lejos, el biólogo molecular ruso
Denis Rebrivok ya pidió autorización a tres agencias científicas para repetir
el experimento de He. Hay una corriente de pensamiento que viene predicando esa
superación tecnológica de la humanidad hace al menos medio siglo: el
transhumanismo. Conocer sus argumentos, sus matices y sus políticas parece
necesario para afrontar un debate que viene a nuestro encuentro.
¿Qué es el
transhumanismo?
El transhumanismo, o simplemente
h+, es un movimiento intelectual que cuestiona los límites naturales de la
humanidad y promueve diferentes maneras de superarlos por medio de la
tecnología. Una exposición sencilla de sus horizontes es la de Max Tegmark,
profesor de Física en el Instituto Tecnológico de Massachusetts (mit), quien divide el desarrollo de la vida en tres
fases a partir de su capacidad de autodiseño: la fase biológica, cuyo hardware y software son fruto
de la evolución, por ejemplo las bacterias surgidas hace unos 4.000 millones de
años; la fase cultural
de la especie humana, cuyo hardware es fruto de la evolución pero que pudo
diseñar parte de su software; y la fase
tecnológica, surgida a fines del siglo XX,
que será capaz de diseñar tanto su hardware como su software. Esa tipología ya
encierra los tres elementos distintivos del transhumanismo: la comprensión del
ser vivo como un dispositivo, la superación tecnológica del ser humano y la
autodeterminación total del sujeto.
En su premiado ensayo To Be a Machine [Ser una
máquina], el periodista irlandés Mark O’Connell define el transhumanismo como
un movimiento de liberación de la naturaleza. Para los transhumanistas, la
naturaleza no es sagrada sino que es un deber transformarla, empezando por el
genoma humano, para garantizarnos mejor vida y máximo desarrollo. El filósofo
Andy Clark señala que el individuo es espontáneamente capaz de incorporar
prótesis que lo mejoren, comenzando por el lenguaje, la primera tecnología
incorporada a la naturaleza humana. Para el médico francés Laurent Alexandre,
es casi una cuestión de supervivencia: «Al debilitarse la selección natural, el
deterioro de nuestro genoma afectará particularmente nuestro sistema nervioso
central y nuestro cableado neuronal. Por esta razón, la tecnomedicina que se
anuncia ya no es una opción, sino una auténtica necesidad».
Parte de ese antinaturalismo
implica pasar de una concepción terapéutica de la medicina a otra mejorativa:
ya no se trata de curar
disfunciones del cuerpo, sino de
mejorar, incluso
ampliar sus funciones.
Ese mejoramiento va desde la corrección celular mediante nanotecnologías hasta
la búsqueda de inmortalidad, pasando por la eugenesia. A diferencia de la
tristemente célebre eugenesia del siglo XX, la
«eugenesia democrática» que propone el transhumanismo no sería eliminativa,
sino mejorativa; no sería discriminatoria, sino que extendería la igualdad
legal y social a la genética; no sería estatal, sino individual: los padres
elegirían el diseño genético de sus hijos.
La antropología transhumanista es
brutalmente materialista: el ser humano no tiene
un cuerpo sino que es
un cuerpo y puede entenderse enteramente, y transformarse ilimitadamente, a
partir de procesos físicos. Desde la teoría de los humores de la Antigüedad hasta el
mecanicismo moderno, hay una propensión histórica de las sociedades a
explicarse a sí mismas a través de la tecnología más avanzada de cada época. Hoy ese lugar lo ocupa la
informática: el quantified self [yo
cuantificado] transhumanista
considera el ser como algo reducible a un conjunto de datos que pueden
interpretarse e incluso revertirse mediante el biohacking. En este sentido, para Luc Ferry el
transhumanismo no solo incurre en el determinismo no falsable de todos los
materialismos, sino que forma parte del «solucionismo tecnológico» de la época.
Finalmente, el transhumanismo, con
su confianza en la razón y la autodeterminación humana, es un heredero
paradójico de la tradición humanista occidental.
Humanismo y
transhumanismo
Dentro del transhumanismo
anglosajón, se considera que el padre del concepto fue el futurista iraní
nacionalizado estadounidense Fereidoun M. Esfandiary, quien habría usado el
término «transhuman»
en 1966 durante sus clases en la
New School for Social Research de Nueva York. Sin embargo, la
palabra ya figura en el artículo «Del prehumano al ultrahumano», publicado por
el paleontólogo jesuita Pierre Teilhard de Chardin en 1951, que traza la futura
evolución de la humanidad hasta alcanzar un estado transhumano. El
evolucionismo de Teilhard incluye variables tecnológicas como «una red
telefónica y televisiva que permita la sintonización directa entre cerebros»,
pero está inscripto en un finalismo dualista que, en última instancia, confía
toda trascendencia a Dios.
Poco después, en 1957, el biólogo
inglés Julian Huxley acuñó el término «transhumanismo». En busca de una
ideología alternativa a la religión y el marxismo, Huxley concibe un «humanismo
evolutivo», aleatorio y monista (a diferencia del de Teilhard), que trascienda
lo humano: «La especie humana puede si se lo propone trascenderse a sí misma
–no simplemente de manera esporádica, un individuo aquí de una forma y allá
otro individuo de otra– sino en su integridad como humanidad. Tenemos la
necesidad de darle un nombre a esa creencia. Puede ser que ‘transhumanismo’ sea
conveniente; el hombre en tanto hombre, pero autotrascendiendo». Para el filósofo belga Gilbert
Hottois, Huxley, un eugenista convencido que repudió todas las formas de
racismo, es el padre de un transhumanismo progresista heredero de la tradición
humanista clásica.
«El transhumanismo hunde sus raíces
en el humanismo racionalista», concluye Nick Bostrom en su historia del
pensamiento transhumanista, un texto cuya primera mitad es poco
más que una colección de citas sin contexto del canon clásico al que el
filósofo sueco reclama pertenencia: desde la autodeterminación humana de Pico
della Mirandola (1486) hasta el materialismo mecanicista de Julien Offray de La Mettrie (1750), pasando
por Francis Bacon, Isaac Newton, Thomas Hobbes, John Locke, Immanuel Kant y
Nicolas de Condorcet. En su ensayo crítico sobre el transhumanismo, Ferry
señala que, a diferencia del humanismo clásico, el progreso transhumanista pasa
de la escala histórica a la evolutiva, con lo cual la voluntad de mejora excede
lo social y alcanza lo biológico, además de la implícita negación de los
derechos naturales que encierra su antinaturalismo.
Para Hottois, la gran mayoría de
los pensadores transhumanistas no rechazan el humanismo, sino que lo critican y
pretenden enriquecerlo. Según el filósofo belga, el humanismo arrastra un
imaginario obsoleto, de raíz judeocristiana, predarwiniano y antropocentrista,
que se resigna ante una naturaleza humana supuestamente inmutable y confina
todo progreso material al entorno del ser, mientras limita su mejoramiento
intrínseco a bienes simbólicos como la cultura o la ley. El aporte
transhumanista sería justamente actualizar esa imagen del ser humano
habilitando la incorporación de las revoluciones tecnocientíficas pasadas y las
venideras. Pero al mismo tiempo, señala Hottois, el transhumanismo debe ser
leal al legado humanista: universalismo, libertad, igualdad, justicia,
pluralismo, empatía y pensamiento crítico, si no quiere devenir en un
pensamiento tecnomístico o apocalíptico.
En la tradición de pensamiento
transhumanista, el siglo XX es un parteaguas.
Escritos como Icarus: The Future
of Science [Ícaro. El futuro de la ciencia] (1924) de Bertrand Russell (una
respuesta al eugenista Daedalus,
or Science and the Future [Dédalo, o la ciencia y el futuro], de
John Haldane) adelantaban la mirada sombría sobre el efecto de la tecnología,
incluso el racionalismo, para la humanidad que, luego de la experiencia del
nazismo y la Segunda
Guerra Mundial, sería un lugar común en el pensamiento
crítico occidental. Desde entonces, el hogar para las ideas de mejoramiento
humano fue la ciencia ficción, hasta que el optimismo científico de la década
de 1960 reavivó tímidamente el debate con la obra de Robert Ettinger y del
citado Esfandiary. Sin embargo, apunta Ferry, ese renacimiento transhumanista
no dejó de acusar el impacto de la contracultura de los años 60 y 70, desde la
crítica a la modernidad hasta las nuevas corrientes espirituales, todas
adversas al humanismo racionalista occidental. Desde la mirada humanista y
republicana de Ferry, esos movimientos sentaron las premisas para la
radicalización del transhumanismo en poshumanismo, una versión posmoderna de
aquel que renuncia al acervo filosófico y ético del humanismo.
Inmortalidad:
transhumanistas contra bioconservadores
Cuando Esfandiary, rebautizado fm-2030 en referencia al año en que esperaba morir,
publicó su libro Are You a
Transhuman? [¿Eres un transhumano?], en 1989, el transhumanismo ya
había resucitado gracias al activismo de Max More. Nacido como Max O’Connor y
formado en filosofía en Oxford, More se mudó a California en 1988 para hacer un
posgrado. Allí entró en contacto con la subcultura futurista local y fundó
Extropy, un movimiento que abogaba por el optimismo tecnológico y la expansión
ilimitada de las capacidades humanas. La extropía –un neologismo en oposición a
entropía– pronto tuvo su revista, su manifiesto y un mailing que funcionó como fuerza
centrípeta del movimiento futurista, a tono con la naciente «ideología
californiana» de Silicon Valley. Allí participaron futuros
referentes del transhumanismo como el sueco Anders Sandberg. En 1998, Bostrom y
el filósofo utilitarista David Pearce fundaron la Asociación Mundial
Transhumanista (wta, por sus siglas en inglés)
para «proporcionar una base organizativa general y desarrollar una forma de
transhumanismo más madura y académicamente respetable»7. En 2001 la asociación quedó a cargo
del sociólogo canadiense James Hughes y más tarde cambió su nombre a Humanity+8.
Si hubiera que definir un programa
transhumanista de máxima, sería la inmortalidad. Ya en 1962 Ettinger comenzó a
abogar por la criopreservación, que en Estados Unidos se practica desde 1966.
El propio More es ceo de Alcor Life Extension, la
compañía de criopreservación más grande del mundo, fundada en 1972. Más
recientemente se desarrollaron proyectos para revertir el envejecimiento
celular, como Estrategias para la
Ingeniería de la Senescencia
Insignificante (Strategies
for Engineered Negligible Senescence) del gerontólogo inglés Aubrey
de Grey, inspiradora a su vez de la biotecnológica Calico, perteneciente a
Google; o los experimentos de la neocelandesa Laura Deming, financiados por
Peter Thiel, cofundador de PayPal.
Pese a que en abril de 2019
investigadores de la Universidad de Yale lograron revivir células
cerebrales de cerdos muertos9, la inmortalidad parece fuera de discusión
en el mundo científico. Sin embargo, son muchos los filósofos y pensadores que
salieron a debatir con el transhumanismo y se ganaron el mote de
«bioconservadores». A la cabeza de los bioconservadores están dos
ex-integrantes del Consejo de Bioética de George W. Bush: Leon Kass y Francis
Fukuyama. Con argumentos del naturalismo aristotélico más rancio, Fukuyama
habla del sacrilegio de alterar una naturaleza sabia y equilibrada, que incluye
la dotación moral humana. Michael Sandel, por su parte, denuncia la hybris de pasar de una «ética de gratitud
por lo dado» a una «ética de dominio del mundo», que liquidaría la humildad, la
solidaridad y la inocencia de nuestra especie. En relación con la eugenesia,
Jürgen Habermas señala no solo los problemas éticos de dejar a la humanidad en
manos de la moda de turno entre sus padres, sino el posible reproche de
nuestros hijos por determinar así su destino.
Otro conjunto de críticas apuntan a
los problemas prácticos: el costo social de mantener ancianos por siglos, de
financiar una mejora médica constante o de desplazar la atención de la terapia
de personas al mejoramiento de embriones. Sandel y Ferry advierten que el costo
de la ingeniería genética produciría nuevas desigualdades entre las familias, a
punto tal de hacer coexistir varias humanidades diferentes, como ya pasó con
cromañones y neandertales, con el previsible sometimiento o extinción de la más
débil. Finalmente, una crítica más existencial10, ya anticipada por Jorge Luis
Borges en su cuento «El inmortal», observaba que una vida eterna disuelve
nuestra noción de consecuencia, de tiempo y, finalmente, de identidad. Esta
disolución del yo no parece necesariamente reprobable para la versión más
radicalizada del transhumanismo: el poshumanismo.
La singularidad y el
poshumanismo como religión
Al igual que la comunidad
transexual, los transhumanistas se sienten atrapados en el cuerpo equivocado,
solo que para ellos todos los cuerpos son equivocados. Los h+ abogan por la
«libertad morfológica» de adoptar cualquier soporte físico que la tecnología
permita. O ninguno en absoluto. A la hora de despreciar el cuerpo, los
transhumanistas apelan a la «paradoja de Teseo»: si renovamos todas nuestras
células cada siete años, ¿se puede pensar que nuestra identidad reside en este
cuerpo? Pero ¿qué hacer con las células cerebrales, que no se renuevan? En ese
punto ciego se cifra la esperanza transhumanista en la emulación cerebral.
Desde que Sandberg y Bostrom
publicaron en 2007 «Whole Brain Emulation: A Road Map» [Emulación cerebral
total. Una hoja de ruta]11, muchos neurocientíficos adoptaron
la premisa de que la actividad cerebral es un software que, de poder escanearse
el cerebro, podría ser reproducido en cualquier plataforma. Si pudimos hacer
que la música suene igual en un cd, un mp3 o la nube, ¿por qué no podríamos hacer lo mismo con
la mente? La mayoría de estas investigaciones se presentan ante la comunidad
médica como herramientas de diagnosis y neuroprótesis. Pero muchos sueñan en
voz baja con poder escanear un cerebro, emularlo, reescribirlo, mejorarlo y
subirlo a una computadora. No por nada detrás de estos desarrollos también
están los dólares de Thiel y su ex-socio en PayPal, Bryan Johnson, un
convencido de que «todo en la vida es un sistema operativo». O’Connell
encuentra en el proyecto un paradójico materialismo idealista, que parte de entender
la mente como una propiedad emergente de la relación entre cosas físicas para
terminar creyendo que es posible separarla del cuerpo para salvarla. A partir
del discutido «principio antrópico cosmológico», Sandberg concluyó que, para
sobrevivir, la humanidad debe expandirse al cosmos, pero solo puede hacerlo
separando la mente de su cuerpo y convirtiéndola en energía. Esa confluencia de
mente y materia, de humanidad y tecnología, será el paso de la particularidad
física a la singularidad. Ese es el salto de fe del transhumanismo hacia el
poshumanismo.
El concepto de «singularidad» (singularity) apareció por
primera vez en una necrológica de 1958 que el matemático polaco Stanisław Ulam
le dedicó a su colega John von Neumann, del Proyecto Manhattan: «el siempre
acelerado progreso de la tecnología y los cambios en el modo de vida humana, la
cual da la impresión de aproximarse a una singularidad esencial en la historia
de la raza más allá de la cual los asuntos humanos, tal como los conocemos, no
podrían continuar». Más adelante, Vernor Vinge usó el término para hipotetizar
sobre el desarrollo de una inteligencia artificial superior a la humana que
amenaza a nuestra especie, un tema que preocupa a los transhumanistas más
críticos12.
Fue Ray Kurzweil, director de
ingeniería de Google desde 2012, quien tomó la singularidad en un sentido
visionario y militante. A partir de la ley de Moore sobre el desarrollo
progresivo de la potencia informática, Kurzweil proyecta una evolución lineal y
finalista: «mucho del pensamiento humano es derivativo, baladí y circunscrito.
Esto terminará con la singularidad, la culminación de la fusión entre nuestro
pensamiento y existencia biológica y nuestra tecnología, resultando en un mundo
aún humano pero que trascienda nuestras raíces biológicas». En el poshumanismo
de Kurzweil, el optimismo tecnológico californiano convive con un cosmismo
panteísta más propio de la new age
o la «ecología profunda», que conciben el planeta como una persona y la
inteligencia colectiva de la humanidad como su sistema nervioso. Y también el
antihumanismo filosófico que ya anticipara Jean-François Lyotard en Lo inhumano, hoy retomado por
realistas especulativos adversos al posmodernismo, como Ray Brassier o Quentin
Meillasoux: la posibilidad de pensar un mundo sin humanos, ergo, un pensamiento
sin sujeto. O como dirían los h+, un software sin hardware.
Una vez llegados a este punto, es
inevitable concluir con O’Connell que el rabiosamente ateo transhumanismo es
también una religión, con su comunión (la singularidad), su transmigración de
las almas (la emulación cerebral) y hasta su limbo (la criopreservación). Queda
por ver, siguiendo el famoso apotegma de Carl Schmitt, si hay en esta
particular teología secular algún concepto político.
Políticas del
transhumanismo
Desde sus orígenes como movimiento
en la década de 1980, el transhumanismo tuvo una marcada afinidad con el
liberalismo libertario. La primera declaración de principios de Extropy incluía
el «orden espontáneo» de la sociedad, así como la remoción de todo límite a la
autorrealización personal. Si bien sucesivas reformulaciones de esos principios
moderaron esa postura, la lista de lecturas recomendadas de Extropy no dejaba
muchas dudas: Friedrich Hayek, Karl Popper, Ronald H. Coase y David Friedman.
Hasta su dispersión a mediados de los años 2000, los foros extropianos seguían
hegemonizados por varones jóvenes autoproclamados libertarios, refractarios al
ecologismo y el feminismo. El caso de Thiel es más complejo: no solo se define
libertario, sino que mantiene contactos con el movimiento neorreaccionario (nrx) de Nick Land y Curtis Yarvin, alias Mencius
Moldbug, una corriente de la derecha alternativa radicalmente opuesta al
igualitarismo y el legado iluminista. Las ideas de superioridad humana y
eugenesia atrajeron más de una vez a neonazis a los foros transhumanistas, en
especial en 2000, cuando la web racista Xenith.com
se afilió al movimiento. En todos los casos, los referentes tomaron
distancia. Los transhumanistas europeos, como Bostrom y Sandberg, notaron el
sesgo libertario del movimiento norteamericano y fundaron la wta sobre principios políticos más diversos. La
declaración transhumanista de 1998 advierte sobre los riesgos de la tecnología,
adhiere a la ética utilitarista, se pronuncia contra todo autoritarismo
político y se muestra abierta a un amplio rango de opiniones, desde el
liberalismo hasta la socialdemocracia. Aun así, para críticos como Éric Sadin,
el transhumanismo es la ideología de la burguesía digital de Silicon Valley. De hecho, Kurzweil y Thiel
provienen de esa clase social. Franco Berardi lo explica como una forma de
retroceder a la naturaleza a través de la tecnología. El transhumanismo procura
perfeccionar la inteligencia desacoplándola de la sensibilidad, entendida como
debilidad. Pero para Berardi la democracia social se sostiene en un equilibrio
entre inteligencia y sensibilidad: la autonomía de la política como límite
consciente y sensible de la racionalidad es la base de la garantía de igualdad
social sobre las desigualdades naturales. La hegemonía del poder financiero
arrasó con ese proyecto, y el transhumanismo es la expresión tecnooptimista del
retorno al darwinismo.
O’Connell, por el contrario, señala
que el transhumanismo nos propone liberarnos de la naturaleza sometiéndonos a
la tecnología. Ese proyecto no solo alimenta un paradigma en el que los seres
humanos podemos terminar desplazados por dispositivos más útiles y poderosos,
sino que también se condice con las formas de control tecnológico desarrolladas
por el complejo industrial militar. Fue Michael Goldblatt, director de la Oficina de Ciencias de
Defensa de la Agencia
de Proyectos de Investigación Avanzados del Departamento de Defensa de eeuu (darpa), quien en 1999
anunció que «la próxima frontera está dentro de nosotros mismos», frase que
haría las delicias de cualquier transhumanista. La conclusión de O’Connell es
que los dos principios del capitalismo estadounidense, el individuo y la
autosuperación, colisionan en un momento histórico en el que para superarnos
quizás debamos dejar de ser individuos. Podemos agregar que esa contradicción
es la que subyace a la competencia entre el capitalismo estadounidense,
hegemónico durante el siglo XX, y el chino…
¿hegemónico durante el siglo XXI?
¿Es posible un transhumanismo
progresista?
«Entre el apoliticismo de tendencia
tecnocrática, el liberalismo y el neoliberalismo, el libertarismo y la
socialdemocracia, el posicionamiento del transhumanismo sigue siendo
irreductiblemente diverso, contradictorio incluso después de los esfuerzos de
unificación de la wta», concluye Hottois y se vale
de esa diversidad para abogar por un transhumanismo progresista que retome la
tradición de Huxley: «hay que luchar en dos frentes: el humanista clásico y el
transhumanista. Un sueño transhumanista pasa por conciliar individualismo y
socialismo».
Durante todo el siglo XIXy hasta la Segunda Guerra Mundial, la izquierda compartió la
confianza en la tecnología y la evolución humana del positivismo dominante.
Intelectuales como John Haldane o H.G. Wells vieron en el socialismo primero y
en el experimento soviético después un modelo de gobierno racional que
encarrilara el progreso tecnológico en dirección al bienestar humano. Una
tradición olvidada por los transhumanistas es la de los biocosmistas rusos.
Estos intelectuales contemporáneos a la revolución de 1917, siguiendo la estela
del místico cientificista Nicolai Fedorov, incorporaron el mejoramiento humano
en la agenda socialista y discutieron cada uno de los tópicos transhumanistas:
Alexander Svyatogor consideraba que la inmortalidad y la libertad de movimiento
en el cosmos debían ser los principales objetivos del comunismo; Valerian
Muravyov entendió la resurrección como proceso lógico de la reproductibilidad
técnica; Konstantín Tsiolkovski concebía el cerebro como parte material del
universo y proyectó maneras de reubicar a la población resucitada en otros
planetas que más tarde fueron empleadas por la cosmonáutica soviética; por
último, Alexander Bodganov, director del Proletkult,
creó también un Instituto para la Transfusión de Sangre para detener el
envejecimiento, práctica que lo llevó a la muerte.
James Hughes mapeó políticamente el
transhumanismo en busca de tendencias de izquierda16. Allí caben desde el ecologismo no
ludita de Walter Truett Anderson, partidario de una gestión tecnológica de la
naturaleza para evitar su colapso, al darwinismo de izquierda de Peter Singer,
partidario de emplear la genética para modificar los aspectos agresivos del
hombre. Entre utopías sci-fi
y propuestas aceleracionistas, destacan dos tendencias claras de transhumanismo
izquierdista. Una es el movimiento grinder:
biohackers como Tim Cannon o Lepht Anonym que intervienen sus propios cuerpos
en un intento por evitar que Google y otras corporaciones controlen la
singularidad. Si bien son esencialmente performativos y en términos políticos
no van más lejos que el libertarismo anticorporativo, los grinders recuperan la apuesta
del Manifiesto cyborg
de Donna Haraway: asumir que la sociedad ya nos hizo poshumanos y usar ese dato
para emanciparnos de ella.
La otra tendencia, de corte más
socialdemócrata, es la del propio Hughes en su libro Citizen Cyborg [Ciudadano
ciborg]: un «transhumanismo democrático» que garantice mediante políticas
públicas la seguridad y el acceso a las nuevas tecnologías de todos los
individuos que quieran controlar sus propios cuerpos. Hughes piensa
esencialmente en personas con discapacidades, pero podemos extender ese
criterio. Desde la identidad sexual hasta la legalización del aborto, un grueso
de los debates y luchas políticas contemporáneos se dan por el control del
cuerpo. La crítica literaria Katherine Hayles, por ejemplo, aboga por un
«transhumanismo deconstructivo». Sin adherir expresamente al h+, el
xenofeminismo de Helen Hester o el trabajo de Paul B. Preciado con la
testosterona recuperan la idea de emancipación antinaturalista.
El transhumanismo es un movimiento
con límites y axiomas, como todos, pero también con una plasticidad política y
filosófica que vale la pena al menos discutir. Sería un error que la izquierda,
dentro del paradigma crítico de la modernidad que arrastra desde la posguerra,
adhiriera a nociones sacralizadoras de la naturaleza, como lo hacen, por
ejemplo, ciertas corrientes inspiradas en el autonomismo de Iván Illich. No solo porque muchos argumentos
bioconservadores están muy cerca de ser lisa y llanamente conservadores (por
ejemplo, el naturalismo aristotélico-tomista, apto para criticar tanto la
inmortalidad como la homosexualidad, según en qué manos caiga). También, y
fundamentalmente, porque el actual direccionamiento político del desarrollo
tecnológico define una agenda en la que las corporaciones ya parecen tener un
proyecto. Replegarse en argumentos reactivos sería ceder la iniciativa futurista
a esos intereses. Si no pensamos el futuro, alguien lo hará por nosotros.
https://nuso.org/articulo/hacia-un-futuro-transhumano/
-IV-
Los científicos de Cambridge que estudian qué va a
terminar con la humanidad (y cómo salvarnos)
8 octubre 2020
La Tierra existe desde hace 45 millones de siglos y
sin embargo este que estamos viviendo es único en la historia.
"Es
el primer siglo en el que una especie, la nuestra, ostenta tanto poder y es tan
dominante que tiene el futuro del planeta en sus manos", escribe el
prestigioso astrónomo británico Martin Rees en "En el futuro. Perspectivas
para la humanidad".
"Lo
que está en juego es más importante que nunca; lo que ocurra en este siglo
se hará sentir durante miles de años", sentencia en dicho libro de
2018.
En verdad
Rees lleva más de dos décadas repitiendo estas advertencias que, para una
amplia mayoría, sonarían interesantes, pero improbables. Quizás en aquel
entonces, más que ciencia, parecían propias de ciencia ficción.
De hecho,
él mismo reconoció en una charla TED que "nos preocupamos demasiado por
riesgos menores: accidentes aéreos improbables, sustancias cancerígenas en
los alimentos, dosis bajas de radiación... Pero nosotros y los políticos que
nos gobiernan vivimos en negación de los escenarios catastróficos".
Entonces llegó 2020
y cada palabra de Rees pasó a tener una escalofriante vigencia.
Por
ejemplo, en esa charla que dio en 2014 afirmaba que ahora "los peores
peligros vienen de nosotros": "Y no solo está la amenaza nuclear. En
nuestro mundo interconectado (...) los viajes en avión pueden propagar
pandemias en cuestión de días; y las redes sociales pueden divulgar pánico y
rumores literalmente a la velocidad de la luz".
Sin
embargo, hubo quienes no necesitaron la pandemia de covid-19 para escuchar a
Rees. Desde 2015 un pequeño grupo interdisciplinario de investigadores trabaja
bajo su liderazgo en el llamado Centro para el Estudio de Riesgo Existencial
(CSER) en la Universidad de Cambridge, en Reino Unido.
El
centro, que ha contado con el asesoramiento de destacadas figuras de la
academia —como el físico Stephen Hawking— y de la industria —como el empresario
Elon Musk—, investiga los peligros que podrían llevar a la extinción de la
humanidad o al colapso de la civilización y qué hacer para mitigarlos.
Es
justamente en este segundo aspecto que trabaja la bióloga molecular peruana
Clarissa Ríos Rojas, quien ingresó al CSER en marzo, poco antes de que el
gobierno británico decretara la cuarentena por coronavirus.
"Ya
hemos tenido pandemias antes y sin embargo, covid-19 nos agarró desprevenidos",
dice Ríos a BBC Mundo. "Entonces, ¿qué falló? ¿Cuáles son las lecciones
que podemos aprender de este experimento y cómo podemos prepararnos nuevamente
para el futuro?", se pregunta.
En otras
palabras, su trabajo en Cambridge consiste en identificar por qué las
predicciones basadas en datos científicos no son escuchadas y, en consecuencia,
generar políticas públicas que preparen a la humanidad para la próxima
catástrofe global.
Así como
la profunda crisis provocada por el coronavirus no fue la primera, tampoco
será la última.
5 áreas de riesgo
Lo
primero que explica Ríos es que existe una diferencia entre riesgo catastrófico
y existencial.
Si bien
las definiciones varían levemente entre ellas, en general se entiende que los
eventos de riesgo catastrófico son aquellos que, de ocurrir, terminarían con
la vida del 10% de la población mundial o provocarían un daño equivalente.
Para
tener una referencia, se considera que el evento más letal del siglo XX fue la
pandemia de influenza de 1918, más conocida como gripe española, donde murieron
entre el 1% y 5% de la población mundial, según distintos estimativos.
En cambio, un
evento de riesgo existencial implica la aniquilación de todos los seres
humanos o una reducción poblacional tan grande que no permita continuar con
los estándares de vida actuales, que menoscabe drástica y permanentemente su
potencial.
El CSER
estudia este último tipo de eventos, a los cuales divide en cinco grandes
áreas: riesgos biológicos, ambientales, tecnológicos, derivados de la
inteligencia artificial y de las injusticias sociales.
Algunos
ejemplos son muy claros, como las pandemias dentro del área biológica o el
cambio climático en la ambiental. De hecho, otros riesgos naturales —como el
impacto de un asteroide o la erupción de un supervolcán— están muy presentes en
el imaginario colectivo, ya que han demostrado su poder devastador en el
pasado.
Pero
existen otros riesgos existenciales menos evidentes, como el de la inteligencia
artificial.
"El
miedo con la inteligencia artificial no es que surja un Arnold Schwarzenegger
que nos mate a todos", dice Ríos en referencia al personaje de
Terminator en la primera película de la saga.
"En
realidad puede pasar que, para lograr el objetivo de salvar a la humanidad, se
destroce todo el ecosistema porque no se le dieron los parámetros necesarios
para guiar a esa inteligencia artificial que sigue aprendiendo por sí
sola", explica.
En este
caso, la tarea de Ríos sería, por ejemplo, trabajar junto con los gobiernos
para establecer protocolos y herramientas de monitoreo de las instituciones del
área, o asegurar que los programas de estudios de las universidades vinculadas
a la ingeniería tengan una fuerte base de ética.
La
injusticia social es otra de las áreas cuyo nivel de riesgo puede no ser tan
notorio. Pero existe un ejemplo muy claro en la historia: la conquista
europea de América.
Este
episodio "derivó en la pérdida potencial de más del 80% de las poblaciones
indígenas, el colapso de las civilizaciones azteca, inca y zapoteca, y la
muerte, tortura, disrupción cultural y desestabilización política que
ocurrieron como resultado de la trata transatlántica de esclavos", afirma
CSER en su página web.
Y agrega:
"Hasta el día de hoy, la colonización europea continúa teniendo
impactos catastróficos a escala mundial, incluida la desatención de las
enfermedades tropicales".
Efecto covid-19
Según
Ríos, la pandemia de covid-19 —que ya se cobró más de 1 millón de vidas a lo
largo del mundo—, está enseñando a los gobiernos y la sociedad qué significa
prepararse para lo peor.
"Uno podría
pensar que solamente se vería afectado el sector salud, pero en realidad se vio
afectado el transporte, la agricultura, la educación, la economía, el
trabajo…", agrega.
De
acuerdo con la investigadora peruana, una forma de incorporar estas lecciones a
nivel de política pública podría ser crear equipos gubernamentales que analicen
potenciales riesgos catastróficos vinculados al país o la región (como el
cambio climático en Centroamérica o las armas nucleares en la península de
Corea) y generen protocolos de acción.
Pero,
como reconoce Ríos, "las políticas pueden ser bellas, pero si la sociedad
no quiere aceptarlas y, por ejemplo, sigue saliendo a la calle sin mascarillas,
entonces no sirven de nada".
Para
lograr el compromiso social, se podría incorporar un módulo sobre qué
aprendimos de la pandemia de covid-19 en los programas de secundaria o crear un
máster de riesgo global catastrófico, ejemplifica.
"Si
queremos poner estos tópicos dentro de la agenda política, tiene que haber un
esfuerzo mancomunado y no solo de la Universidad de Cambridge", afirma Ríos.
"Necesitamos una mentalidad de ciudadanía global".
https://www.bbc.com/mundo/noticias-54438847
Amiga, Amigo:
La
Futurología es una pseudo ciencia con bajo porcentaje de
aciertos al igual como lo serán los artículos acá
dejados para el escrito 628. Lo hago para ser cautos frente a
pronósticos ahora más inciertos por la paranoica actitud
de Putin en el delirante anhelo de su Gran Rusia, lo digo sin ser yo un
Futurólogo...
Dr. Iván Seperiza Pasquali
Quilpué, Chile
Marzo de 2022
Portal
MUNDO MEJOR: http://www.mundomejorchile.com/
Correo
electrónico: isp2002@vtr.net