628

Sobre el Futuro de la Humanidad

Proemio

Futurología: la ciencia de la predicción
¿Existe un método racional para pronosticar los sucesos por venir? La respuesta es sí: éste es un breve encuentro con la futurología.
Muchas de las predicciones en el tiempo se vinculan con la ficción, el folklore y la mitología, con creencias religiosas o con prácticas adivinatorias. Pero, ¿existe un método racional para pronosticar los sucesos por venir? La respuesta es sí: éste es un breve encuentro con la futurología.1
¿Qué nos lleva, como especie, a lanzar la mirada hacia el futuro?
La motivación más obvia para preocuparse por él, quizá, sea la supervivencia: la propia, la de la descendencia, del grupo humano más próximo y, en un alcance más amplio, la de la humanidad como especie. Al escudriñar en los secretos del tiempo, intentamos eliminar la incertidumbre que causa aquello que no podemos ver, y prever —es decir, «ver antes»— las condiciones favorables y adversas que imperarán, con el fin de llevar a cabo, en el presente, las acciones adecuadas para hacerles frente.
Hagamos un paralelismo burdo: al consultar el pronóstico del tiempo —que no es sino la proyección de las condiciones meteorológicas actuales— para saber si usar ropa ligera o cargar con abrigo y paraguas, estamos sacando un provecho práctico e inmediato de ese atisbo que alguien hizo del futuro. Pero no nos confundamos: los alcances de la futurología son muchos más amplios y aventurados.

Una breve historia de la futurología
Empecemos por definir qué se entiende por futurología: es la ciencia —o el arte, según algunos— que pretende, valiéndose solamente de métodos científicos y racionales, identificar y evaluar los sucesos futuros posibles, probables y deseables. Tomando esto en cuenta, la clarividencia, la lectura de bolas de cristal, la astrología, los presentimientos y cualquier práctica esotérica, no entran en este terreno; tampoco entran las predicciones a corto plazo —por ejemplo, en el ramo financiero— ni las que se basan en modelos matemáticos relativamente simples —como el movimiento de los astros o el ya mencionado pronóstico del tiempo.
Fue el visionario escritor H. G. Wells quien, en 1932, hizo la primera referencia a los estudios académicos sobre el futuro, y acuñó el término foresight2 —«previsión»—. El término futurology —«futurología»— fue acuñado en los años 40 por Ossip K. Flechtheim, quien la concebía como una rama de la probabilidad y estadística. En lengua inglesa, este término está siendo sustituido por otros como futuring, future studies, futures research, futuristics o futurics. Por otro lado, desde el punto de vista académico —y para los fines de este artículo—, además de referirse a una corriente artística,3 futurismo designa a la doctrina que aboga por un pensamiento racional, científico o basado en el sentido común, cuyo fin último es el de producir un futuro «mejor» por medio de la toma de decisiones.
Llegado este punto, es posible detectar dos grandes líneas de pensamiento con respecto al futuro:
*aquella que considera un solo futuro, monolítico, casi inexorable o matemáticamente calculable a través de la proyección de las tendencias y los patrones de cambio del presente, y que, por decirlo de alguna manera, «ya está ahí y sólo es cuestión de tiempo llegar a él»; *y la que considera diversos futuros posibles y que, mediante la identificación de posibilidades y probabilidades, propone acciones alternativas que nos llevarán a un futuro mejor o «más deseable».
A partir de estas dos líneas de pensamiento ha tenido lugar una multitud de métodos para anticipar, evaluar, predecir y configurar el futuro.

https://algarabia.com/futurologia-la-ciencia-de-la-prediccion/

Desarrollo

-I-

Michio Kaku

a).El futuro de la humanidad
La colonización de Marte, los viajes interestelares…
El último libro de Michio Kaku.
Un relato sobre galaxias, tecnología y el futuro de la humanidad.
Nuestra existencia está amenazada: las glaciaciones, los impactos de asteroides, la capacidad finita de la Tierra e incluso la lejana pero inevitable muerte del Sol son riesgos de tal magnitud que, si no abandonamos la Tierra, deberemos asumir la idea de nuestra extinción. Por eso, para Michio Kaku nuestro destino yace en las estrellas, no por la curiosidad o la pasión aventurera que los humanos llevamos dentro, sino por una simple cuestión de supervivencia. En El futuro de la humanidad, el Dr. Michio Kaku explora los pasos necesarios para lograr este ambicioso objetivo, y describe las tecnologías que nos permitirán colonizar y terraformar otros planetas, así como explorar las infinitas estrellas del universo. A lo largo de estas páginas aprenderemos sobre robots autorreplicantes, nanomateriales y cultivos de bioingeniería que nos permitirán abandonar nuestro planeta; sobre naves nanométricas, velas láser, máquinas de fusión ram-jet, motores antimateria y cohetes hiperimpulsores que nos llevarán a las estrellas, y las tecnologías radicales que alterarán nuestro cuerpo para poder sobrevivir al largo y agotador viaje hacia la conquista del espacio.
En este fascinante viaje, el autor superventas de El futuro de nuestra mente atraviesa las fronteras de la astrofísica, la inteligencia artificial y la tecnología para ofrecer una maravillosa visión del futuro de la humanidad.
La crítica ha dicho...
«El interés mundial en el lanzamiento que llevó a cabo Elon Musk de un de sus vehículos Tesla al espacio, nos muestra como los viajes espaciales han vuelto a convertirse en un entretenimiento de masas y puede que a una aspiración para las masas. Es un buen momento para un libro del físico teórico Michio Kako sobre los posibles caminos de nuestro futuro como viajeros espaciales. [...] Con una facilidad y claridad admirables, el Dr. Kaku repasa la historia de la cohetería, la formación de los planetas y explica cómo podríamos colonizar no solo Marte sino que también algunas de las lunas de Júpiter y Saturno. [...] Este libro tiene un entusiasmo infeccioso y candente.»

https://www.penguinlibros.com/es/ciencia-y-tecnologia/11768-libro-el-futuro-de-la-humanidad-9788499928364#
 
b).El futuro de la humanidad, según Michio Kaku
Cuando soñamos con el futuro de la humanidad lo hacemos con la imaginación de Julio Verne, de H.G Wells, de Sagan, de Asimov, de Arthur C. Clarke, con la de Liu Cixin los más avanzados. ¿Quién no ha leído algún libro de estos genios? La ciencia ficción es la entrada a lo especulativo, la puerta a lo que sin existir todavía se nos explica por adelantado. El ciberpunk fue barruntado por Philip K. Dick… y Ridley Scott lo convirtió en “Blade Runner”. La mente sintetizada se crea con el ciberespacio del “Neuromante” de William Gibson. ¡Muchos de los dispositivos que usamos ahora nacieron de sus inspiraciones!
En el siglo XXI necesitamos nuevos intérpretes, unos que acaricien el arpa de Orfeo (por lo de amansar a las fieras y reunir a los hombres a su alrededor) y yo creo que uno de ellos es Michio Kaku. Michio es un ser híbrido: de origen japonés y budista, aunque educado en un entorno occidental. Quizá por este singular encuentro de civilizaciones, unido a una inteligencia prodigiosa, se explique su comportamiento. Vivaz, ágil y entretenido en su comunicación, a diferencia de las ideas comunes que tenemos sobre los científicos, es toda una estrella de rock, una estrella nacida del laboratorio mental de la teoría de cuerdas. Un físico que se ha propuesto construir un nuevo tipo de ciencia ficción que nos ayude a entender lo que viene. Un influencer de la próxima humanidad.
No conozco a Michio personalmente, pero me lo imagino un pelín abstraído, pensando en el próximo hombre que nos sucederá. Su propuesta es simple y contagiosa, y dice que solo evitaremos nuestra extinción como especie si salimos al espacio, si somos capaces de abandonar el planeta (esto también lo decía Stephen Hawkings).
Lo ha explicado en su libro, El futuro de la humanidad, “The future of humanity”, que es una especie de manual práctico sobre un eventual camino para abandonar el planeta y los avances científicos en los que deberíamos apoyarnos para conseguirlo: desde la construcción de un robot y una nave interestelar, hasta el encuentro con otras civilizaciones. Hay quien lo ve como un Nostradamus un tanto forzado… y se ríen. Yo, sin embargo, lo entiendo más como aquel que señala y nos agita.
Seguramente sus predicciones nos suenen rocambolescas: atascos en la luna, la industria pesada fuera del planeta, robots más inteligentes que un mono… y la vida digital eterna. Podemos ignorarlo, burlarnos de lo que dice o escucharlo con curiosidad.
Particularmente me seduce sobre todo la cuestión de la vida digital eterna. En su libro “La física del futuro” dijo que “a menudo la gente rechaza los avances tecnológicos […] cuando la tecnología contradice la naturaleza humana.” A esto lo han llamado la teoría del hombre de las cavernas y, según Michio, “al producirse un conflicto entre la tecnología moderna y los deseos de los primitivos antepasados, estos últimos siempre ganan”. Es como si nuestro cerebro primitivo y nuestros antepasados tribales y cavernícolas continuaran susurrándonos a la oreja “¡cuidado con lo desconocido!”.
El futuro es así, un poco inasible, un poco fake y, claro está, en constante reinvención. Pero si hemos llegado hasta donde estamos es gracias a estas mentes audaces, a ensoñadores como Michio Kaku (o como Tesla, o como Ramón y Cajal), que se abrieron paso entre las incertidumbres de su tiempo y nos contagiaron su curiosidad. No creo en un futuro de la humanidad  apocalíptico, no creo en un mundo en tinieblas con crisis humanitarias, con zombis y falta de recursos. No creo en un futuro distópico repleto de violencia. No me gusta esa ciencia-ficción. No me gusta ese transhumanismo. Creo en un hombre que sabrá zafarse de estas calamidades y hacerse un camino, y quizá alcancemos finalmente algo parecido a la vida eterna digital porque tal vez nuestra conciencia del tiempo, los viajes, la vida y la muerte hayan cambiado. El hombre de hace doscientos años apenas llegaba a los cuarenta, viajaba fundamentalmente a pie y seguramente nunca abandonaba su comarca. ¡Quién habría imaginado la vida actual!
Llamadme ingenuo. Los ingenuos somos un tanto idealistas: queremos construir una senda que conduzca a la mejor humanidad. Por eso recomiendo leer a Michio y reflexionar sobre estos nuevos límites.
Kaku, M. (2018). El futuro de la humanidad. La colonización de M
arte, los viajes interestelares, la inmortalidad y nuestro destino más allá de la tierra. Barcelona: Debate.
Este profesor e investigador, buen divulgador, de reconocido prestigio internacional, nos ofrece un relato bien fundamentado de las respuestas presentes y futuras (con mayor probabilidad) de la ciencia ante la gran  pregunta que nos afecta a los humanos, por el hecho de serlo: ¿cuál será el  futuro más probable para la humanidad? El subtítulo especifica más concretamente los núcleos esenciales a los que está dedicada esta obra, que se sintetizan  en que nuestro destino puede ubicarse más allá de la tierra. De ahí que esté estructurada en tres grandes apartados: salir de la tierra, viaje a las estrellas y la vida en el universo.
El Prólogo comienza así: Un día, hace unos 75.000 años, la humanidad estuvo a punto de extinguirse. Oportuno aviso para navegantes, sobre todo cuando más del 99% de todas las formas de vida en la tierra se han extinguido: la extinción es, por consiguiente, la norma. De hecho, nuestro planeta ya ha sufrido cinco grandes ciclos de extinción, con la desaparición de hasta un 90% de los seres vivientes en cada una de ellas. Es altamente probable  (las leyes de la física así lo atestiguan) que  haya más (aunque muy lejano, uno de ellos será la transformación del sol en una gigantesca estrella roja, acabando así con la tierra). Parece, por tanto, inevitable que tarde o temprano nos veamos en la necesidad de hacer frente a algún acontecimiento capaz de llevarnos a la extinción, sobre todo por nuestra insensatez y falta de visión (calentamiento global, guerra nuclear, superpoblación,…). Hemos, pues, de estar preparados para ello y uno de nuestros mejores aliados, si no el mejor,  lo podemos encontrar en el correspondiente conocimiento proporcionado por la ciencia. Eso es lo que precisamente nos ofrece aquí Kaku (en sus Agradecimientos hace referencia a más de una decena de premios Nobel, además de otros muchos grandes científicos, especializados en diversas materias: física, ingeniería, informática, genética, astronomía, cosmología, química, neurociencia, biología,…).
Si miramos hacia atrás en el tiempo, la ciencia es el mejor relato posible para responder a las grandes preguntas sobre nuestro origen (teoría de la evolución) y el de nuestro universo (teoría del big bang), siendo conscientes de que ambas teorías están sujetas a evaluaciones  científicas permanentes, pues esta es la esencia de la propia ciencia. Las teorías se mantienen como válidas si son capaces de ofrecer la mejor explicación posible de la realidad a la que se refieren, en comparación con las otras alternativas teóricas posibles (derivadas de la propia ciencia o de versiones extracientíficas) y hasta no encontrar hechos o datos que las contradigan.
En el presente, estamos siendo testigos de un cambio cuyas implicaciones no cabía imaginar hasta ahora: el paso de la evolución no dirigidaciega– (somos su fruto, sin ningún tipo de intervención por nuestra parte) a la evolución dirigida por los humanos, gracias a nuestros conocimientos científicos actuales (y futuros) sobre nuestra naturaleza y la del propio cosmos.  La primera evolución ha necesitado un tiempo inmenso, en la segunda los cambios se irán produciendo a velocidades vertiginosas, comparativamente hablando.
De cara al futuro, aplicando los avances previsibles de las ciencias (conocimiento de lo que realmente es la materia y energía oscuras, los agujeros negros, la unificación de la relatividad y la mecánica cuántica en una gran teoría -si fuera posible-, la verificación de la validez de la teoría de cuerdas, el multiverso, los agujeros negros y de gusano, …) y de las tecnologías (inteligencia artificial, nanotecnología –ascensores espaciales-, biotecnología…), hemos de ir preparando la habitabilidad de otros lugares (la luna –gasolinera cósmica-, marte –Jardín del Edén-, las lunas de los gigantes gaseosos –Europa y Titán-, otros exoplanetas…), terraformándolos. Para ello hemos de ayudarnos de robots autorreplicantes, rayos láser gigantes (laserportación),  aeronaves con estatorreactores de fusión, máquinas de antimateria,  velas solares, nanonaves, entre otros muchos nuevos y revolucionarios artefactos. A su vez, también podemos llevar las correspondientes modificaciones humanas (desacelerar o incluso detener el proceso de envejecimiento, inmortalidad digital, transhumanismo…) para la adaptación a los nuevos entornos tan diferentes a los de nuestro planeta (inmensas distancias interplanetarias, diferente gravedad, mayores niveles de radiación, temperaturas extremas,…).  Ni que decir tiene que nuestra perspectiva temporal para poder ver todo ello hecho realidad no es inmediata. Hemos de asumir un horizonte amplio de uno o dos siglos.
El libro es un magnífico fruto de la buena imaginación y del conocimiento científico pertinente, muy bien escrito y documentado, y que es puesto al servicio del futuro de la humanidad.

https://acipe.es/el-futuro-de-la-humanidad 

 

-II-

a).El Instituto para el Futuro de la Humanidad —FHI, siglas en inglés—
El futuro de la humanidad en sus manos
Un equipo de expertos investiga en un Instituto de Oxford los riesgos de extinción del ser humano
Necesitamos sabiduría para enfrentar el futuro. Para saber si los progresos tecnológicos de vanguardia van en la dirección adecuada o no; si favorecen al ser humano o todo lo contrario. Para tener una idea de qué hacer si se presentan escenarios que ponen en riesgo la supervivencia de la especie, como los derivados de la amenaza nuclear, la modificación de microbios letales o la creación de mentes digitales más inteligentes que el hombre. A reflexionar sobre este tipo de cuestiones se dedican un puñado de cerebros en un lugar ubicado en Oxford y llamado el Instituto para el Futuro de la Humanidad.
Al frente de un heterodoxo grupo de filósofos, tecnólogos, físicos, economistas y matemáticos se encuentra un filósofo formado en física, neurociencia computacional y matemáticas, un tipo que desde su adolescencia se encontró sin interlocutores con los cuales compartir sus inquietudes acerca de Schopenhauer, un sueco de 42 años que se pasea por las instalaciones del Instituto con un brebaje hecho a base de vegetales, proteínas y grasas al que denomina elixir y que escucha audiolibros al doble de velocidad para no perder un segundo de su preciado tiempo. Se llama Nick Bostrom, y es el autor de Superinteligencia: Caminos, Peligros, Estrategias, un libro que ha causado impacto, una reflexión acerca de cómo afrontar un futuro en que la inteligencia artificial supere a la humana, un ensayo que ha recibido el respaldo explícito de cerebros de Silicon Valley como Bill Gates y Elon Musk, de filósofos como Derek Parfit o Peter Singer, de físicos como Max Tegmark, profesor del Massachusetts Institute of Technology. Un trabajo que, además, se coló en la lista de los libros más vendidos que elabora The New York Times Book Review. La ONU le reclama para que exponga su visión, sociedades científicas como The Royal Society le invitan a dar conferencias, una de sus charlas TED lleva ya contabilizados más de 1.747.000 visionados. Y Stephen Hawking ya ha alertado al mundo: hay que tener cuidado con la Inteligencia Artificial.
El Instituto para el Futuro de la Humanidad —FHI, siglas en inglés— es un espacio con salas de reuniones bautizadas con nombres de héroes anónimos que con un gesto salvaron el mundo —como Stanislav Petrov, teniente coronel ruso que evitó un incidente nuclear durante la Guerra Fría— donde fluyen las ideas, los intercambios de impresiones, donde florecen hipótesis y análisis. Sobre todo, por las tardes-noches: el jefe es, como él mismo confiesa, un noctámbulo; se queda en la oficina hasta las dos de la madrugada.
“En el momento en que sepamos cómo hacer máquinas inteligentes, las haremos”, afirma Bostrom, en una sala del Instituto que dirige, “y para entonces, debemos saber cómo controlarlas. Si tienes un agente artificial con objetivos distintos de los tuyos, cuando se vuelve lo suficientemente inteligente, es capaz de anticipar tus acciones y de hacer planes teniendo en cuenta los tuyos, lo cual podría incluir esconder sus propias capacidades de modo estratégico”. Expertos en Inteligencia Artificial que cita en su libro aseguran que hay un 90% de posibilidades de que entre 2075 y 2090 haya máquinas tan inteligentes como los humanos. En la transición hacia esa nueva era habrá que tomar decisiones. Inocular valores morales a las máquinas, tal vez. Evitar que se vuelvan contra nosotros.
A analizar este tipo de supuestos y escenarios se dedica este hombre que en estos días lee intensivamente sobre machine learning (aprendizaje automático, rama de la inteligencia artificial que explora técnicas para que las computadoras puedan aprender por sí solas) y economía de la innovación. Para Bostrom el tiempo nunca es suficiente. Leer, leer, leer, asentar conocimientos, profundizar, escribir. “El tiempo es precioso. Es un bien de gran valor que constantemente se nos desliza entre los dedos”.
La gente parece olvidar la guerra nuclear. Un cambio para mal en la geopolítica podría ser un peligro 
Estudiar, formular hipótesis, desarrollarlas, anticipar escenarios. Es lo que se hace en este Instituto donde se cultiva la tormenta de ideas y la videoconferencia, un laberinto de salas dominadas por pizarras velleda con diagramas y en cuyo pasillo de entrada cuelga un cartel que reproduce la portada de Un mundo feliz, la visionaria distopía firmada por Aldous Huxley en 1932. Un total de 16 profesionales trabajan aquí. Publican en revistas académicas, hacen informes de riesgos para compañías tecnológicas, para gobiernos (por ejemplo, el finlandés) o para la ONU, que se dispone a crear su primer programa sobre Inteligencia Artificial —uno de cuyos representantes andaba la semana pasada por las oficinas del FHI—. Niel Bowerman, director adjunto, físico del clima y exasesor del equipo político de Energía y Medio Ambiente de Barack Obama, explica que en el instituto siempre estudian cómo de grande es un problema, cuánta gente trabaja en él y cómo de fácil es realizar progresos en esa área para determinar los campos de estudio.
Bostrom es el hombre que comanda el Instituto, el que decide por dónde se transita, el visionario. Desarrolla su labor gracias al impulso filantrópico de James Martin, millonario interesado en las cuestiones de los riesgos existenciales del futuro que impulsó el FHI hace diez años para que se estudie y reflexione en torno a aquellas cosas en las que la industria y los gobiernos, guiados por sus particulares intereses, no tienen por qué pensar.
Al filósofo sueco, que formó parte en 2009 de la lista de los 100 mayores pensadores globales de la revista Foreign Policy, le interesa estudiar, sobre todo, amenazas lejanas, a las que no le gusta poner fecha. “Cuanto más largo sea el plazo”, dice, "mayores son las posibilidades de un escenario de extinción o de era posthumana”. Pero existen peligros a corto plazo. Los que más le preocupan a Bostrom son los que pueden afectar negativamente a las personas como las plagas, la gripe aviar, los virus, las pandemias.
En cuanto a la Inteligencia Artificial y su cruce con la militar, dice que el riesgo más claro lo presentan los drones y las armas letales autónomas. Y recuerda que la guerra nuclear, aunque tiene pocas probabilidades de llegar, sigue siendo un peligro latente. “La gente parece haber dejado de preocuparse por ella; un cambio para mal en la situación geopolítica podría convertirse en un gran peligro”.
“Hay una carrera entre nuestro progreso tecnológico y nuestra sabiduría, que va mucho más despacio” 
La biotecnología, y en particular, la posibilidad que ofrece el sistema de edición genética CRISPR de crear armas biológicas, también plantea nuevos desafíos. “La biotecnología está avanzando rápidamente va a permitir manipular la vida, modificar microbios con gran precisión y poder. Eso abre el paso a capacidades muy destructivas”. La tecnología nuclear, señala, se puede controlar. La biotecnología, la nanotecnología, lo que haga alguien un garaje con un equipo de segunda mano comprado en EBay, no tanto. Con poco se puede hacer mucho daño.
Superada su etapa transhumanista —fundó en 1998 junto a David Pearce la Asociación Mundial Transhumanista, colectivo que aboga de modo entusiasta por la expansión de las capacidades humanas mediante el uso de las tecnologías—, Bostrom ha encontrado en la Inteligencia Artificial el terreno perfecto para desarrollar su trabajo. La carrera en este campo se ha desatado, grandes empresas —Google compró en 2014 la tecnológica DeepMind— y Estados pugnan por hacerse con un sector que podría otorgar poderes inmensos, casi inimaginables.
Uno de los escenarios que proyecta en su libro, cuya versión en español publica el 25 de febrero la editorial Teell, es el de la toma de poder por parte de una Inteligencia Artificial (AI, siglas en inglés). Se produce una explosión de inteligencia. Las máquinas llegan a un punto en que superan a sus programadores, los humanos. Son capaces de mejorarse a sí mismas. De desarrollar grandes habilidades de programación, estratégicas, de manipulación social, de hacking. Pueden querer tomar el control del planeta. Los humanos pueden ser un estorbo para sus objetivos. Para tomar el control, esconden sus cartas. Podrán mostrarse inicialmente dóciles. En el momento en que desarrollan todos sus poderes, pueden lanzar un ataque contra la especie humana. Hackear drones, armas. Liberar robots del tamaño de un mosquito elaborados en nanofactorías que producen gas nervioso, o gas mostaza.
Esta es simplemente la síntesis del desarrollo de un escenario. Pero, como decía la crítica de Superinteligencia de la revista The Economist, las implicaciones de la introducción de una segunda especie inteligente en la Tierra merecen que alguien piense en ellas. “Antes, muchas de estas cuestiones, no solo las del AI, solían estar en el campo de la ciencia ficción, de la especulación”, dice Bostrom, “para mucha gente era difícil de entender que se pudiera hacer trabajo académico con ello, que se podían hacer progresos intelectuales”.
El libro también plantea un escenario en que la Inteligencia Artificial se desarrolla en distintos sectores de manera paralela y genera una economía que produce inimaginables cotas de riqueza, descubrimientos tecnológicos asombrosos. Los robots, que no duermen, ni reclaman vacaciones, producen sin cesar y desbancan a los humanos en múltiples trabajos.
— ¿Los robots nos enriquecerán o nos reemplazarán?
— Primero, tal vez nos enriquezcan. A largo plazo ya se verá. El trabajo es costoso y no es algo deseado, por eso hay que pagar a la gente por hacerlo. Automatizarlo parece beneficioso. Eso crea dos retos: si la gente pierde sus salarios, ¿cómo se mantiene? Lo cual se convierte en una cuestión política, ¿se piensa en una garantía de renta básica? ¿En un Estado del Bienestar? Si esta tecnología realmente hace que el mundo se convierta en un lugar mucho más rico, con un crecimiento más rápido, el problema debería ser fácil de resolver, habría más dinero. El otro reto es que mucha gente ve su trabajo como algo necesario para tener estatus social y que su vida tenga sentido. Hoy en día, estar desempleado no es malo solo porque no tienes dinero, sino porque mucha gente se siente inútil. Se necesitaría cambiar la cultura para que no pensemos que trabajar por dinero es algo que te da valor. Es posible, hay ejemplos históricos: los aristócratas no trabajaban para vivir, incluso pensaban que tener que hacerlo era degradante. Creemos que las estructuras de significado social son universales, pero son recientes. La vida de los niños parece tener mucho sentido incluso si no hacen nada útil. Soy optimista: la cultura se puede cambiar.
A Bostrom se le ha acusado desde algunos sectores de la comunidad científica de tener visiones demasiado radicales. Sobre todo, en su etapa transhumanista. “Sus visiones sobre la edición genética o sobre la mejora del humano son controvertidas”, señala Miquel-Ángel Serra, biólogo que acaba de publicar junto a Albert Cortina Humanidad: desafíos éticos de las tecnologías emergentes. “Somos muchos los escépticos con las propuestas que hace”. Serra, no obstante, deja claro que Bostrom está ahora en el centro del debate sobre el futuro de la Inteligencia Artificial, que es una referencia.
— ¿Proyecta usted una visión demasiado apocalíptica en su libro de lo que puede ocurrir con la humanidad?
— Mucha gente puede quedarse con la impresión de que soy más pesimista con la AI de lo que realmente soy. Cuando lo escribí parecía más urgente tratar de ver qué podía ir mal para asegurarnos de cómo evitarlo.
— Pero, ¿es usted optimista con respecto al futuro?
— Intento no ser pesimista ni optimista. Intento ajustar mis creencias a lo que apunta la evidencia; con nuestros conocimientos actuales, creo que el resultado final puede ser muy bueno o muy malo. Aunque tal vez podríamos desplazar la probabilidad hacia un buen final si trabajamos duramente en ello.
— O sea, que hay cosas que hacer. ¿Cuáles?
— Estamos haciendo todo lo posible para crear este campo de investigación de control problema. Hay que mantener y cultivar buenas relaciones con la industria y los desarrolladores de Inteligencia Artificial. Aparte, hay muchas cosas que no van bien en este mundo: gente que se muere de hambre, gente a la que le pica un mosquito y contrae la malaria, gente que decae por el envejecimiento, desigualdades, injusticias, pobreza, y muchas son evitables. En general, creo que hay una carrera entre nuestra habilidad para hacer cosas, para hacer progresar rápidamente nuestra capacidades tecnológicas, y nuestra sabiduría, que va mucho más despacio. Necesitamos un cierto nivel de sabiduría y de colaboración para el momento en que alcancemos determinados hitos tecnológicos, para sobrevivir a esas transiciones.

https://elpais.com/elpais/2016/02/12/ciencia/1455304552_817289.html


  b). Instituto del Futuro de la Humanidad
El Future of Humanity Institute ( FHI , Institute for the Future of Humanity ) es un centro de investigación interdisciplinario de la Universidad de Oxford , dedicado a cuestiones sobre la humanidad y su futuro. Fue fundada en 2005 como una unidad de la Facultad de Filosofía y la Oxford Martin School  (en) . Dirigido por el filósofo Nick Bostrom , su equipo de investigación incluye al futurista Anders Sandberg  (en) , el ingeniero K. Eric Drexler , el economista Robin Hanson y Toby Ord , fundador de Giving What We Can .
Compartiendo premisas y trabajando en colaboración con el Centro para el Altruismo Efectivo , el objetivo del Instituto es orientar la investigación hacia el mayor bien para la humanidad a largo plazo; participa en actividades académicas, pero también en la promoción de discusiones y análisis informados dentro de organizaciones gubernamentales, comerciales y de otro tipo.
Histórico
Nick Bostrom estableció el Instituto en noviembre de 2005 como una unidad de Oxford Martin School  ( entonces James Martin 21st Century School). Entre 2008 y 2010, la FHI fue sede de la Conferencia Global sobre Riesgo de Desastres , escribió 22 artículos para revistas académicas y publicó 34 capítulos en trabajos colectivos; Los investigadores de FHI han sido mencionados más de 5,000 veces en los medios de comunicación, y ha brindado análisis y asesoramiento al Foro Económico Mundial , organizaciones privadas y sin fines de lucro, como la Fundación MacArthur y la Organización Mundial de la salud ), así como al gobierno. organizaciones en Suecia, Singapur, Bélgica, Reino Unido y Estados Unidos. Nick Bostrom y el bioeticista Julian Savulescu  (en) también publicaron Human Enhancement en marzo de 2009. Más recientemente, FHI se ha centrado en los peligros de la inteligencia artificial (fuerte). En 2014, sus investigadores publicaron varios libros sobre los riesgos creados por la IA, incluidos Smarter Than Us , de Stuart Armstrong, y Superintelligence: Paths, Dangers, Strategies , de Nick Bostrom.
Riesgos existenciales
Artículo principal: Riesgo de catástrofe planetaria .
Los temas más amplios estudiados por la FHI son los riesgos de catástrofes planetarias y, en particular, los “riesgos existenciales”. En un artículo de 2002, Nick Bostrom define un riesgo existencial como "un evento que aniquilaría la vida inteligente en la Tierra o reduciría drástica y permanentemente su potencial" . Esto engloba escenarios en los que la humanidad, sin ser destruida, no logra colonizar el espacio y utilizar los recursos del universo observable, como expone Bostrom en 2003 en su artículo sobre el costo de las oportunidades perdidas .
En su libro de 2008, Global Catastrophic Risks , Bostrom y Milan Ćirković reúnen ensayos sobre muchos riesgos de desastres, naturales y provocados por el hombre. Riesgos naturales, tales como sú
per-volcánica , impactos cósmicos , o eventos astronómicos muy energéticos tales como explosiones de rayos gamma o supernovas , presentar un riesgo bajo y bastante bien entendida, por lo que el FHI está interesado principalmente en los riesgos. Las tecnologías como mundial el calentamiento , la guerra nuclear o los riesgos que presentan las nanotecnologías y la inteligencia artificial , así como las pandemias que podrían provocar armas biológicas . Los investigadores de FHI también han estudiado el impacto del progreso tecnológico en las sociedades e instituciones, desde el totalitarismo hasta el aumento del desempleo y los riesgos de la información.
Razonamiento antropogénico
Artículo detallado : Principio antrópico .
El FHI presta mucha atención a las amenazas exóticas que han sido poco exploradas por otras organizaciones, y a las consideraciones metodológicas para predecir y reducir los riesgos existenciales. Particularmente, el Instituto insistió en la importancia en este contexto del "  razonamiento antrópico  " , un campo aún poco explorado y con implicaciones epistemológicas muy generales.
Entre los argumentos antropogénicos investigados por el FHI, el argumento del apocalipsis afirma que la humanidad debería extinguirse pronto, porque lo más probable es que los humanos que viven ahora estén cerca de la mitad de la distribución de humanos que habrá existido. Nick Bostrom también ofreció el "argumento de la simulación" , que sugiere que si nuestras posibilidades de evitar los riesgos existenciales son altas, es probable que estemos viviendo en una realidad simulada .
Otro tema recurrente entre los investigadores de FHI es la paradoja de Fermi , es decir, la sorprendente ausencia de civilizaciones extraterrestres observables. Robin Hanson dedujo de esto la existencia de un "  gran filtro  " que impide la colonización del espacio, filtro que podría haber actuado en el pasado (si la inteligencia es mucho más rara de lo que pensamos) o en nuestro futuro (si los riesgos existenciales son lo suficientemente altos) .
Transhumanismo y racionalidad
Estrechamente vinculado al trabajo de FHI en la evaluación de los riesgos de las nuevas tecnologías está el trabajo sobre las promesas y los peligros de las mejoras humanas . Estas modificaciones pueden ser biológicas, sociológicas o utilizar recursos informáticos; los estudios se centran en los supuestos más radicales, más que en el progreso previsible a corto plazo. Así, la investigación de FHI en bioética estudia las posibles consecuencias de la terapia génica , pero también de los implantes cerebrales e interfaces neuronales , así como de la descarga de la mente .
FHI también se ha centrado en métodos para evaluar y mejorar la inteligencia y la racionalidad, con el fin de dirigir y acelerar los avances sociales y tecnológicos. El trabajo de FHI sobre las fuentes de la irracionalidad, como la heurística del juicio y los sesgos cognitivos , incluye en particular la colaboración continua con Amlin  (en) para el estudio de los riesgos sistémicos que surgen del sesgo en los modelos utilizados.

https://es.frwiki.wiki/wiki/Future_of_Humanity_Institute 

 

-III-

¿Hacia un futuro transhumano?
El transhumanismo es un movimiento intelectual que propone superar los límites naturales de la humanidad mediante el mejoramiento tecnológico y, eventualmente, la separación de la mente del cuerpo humano. Si bien ha sido históricamente marginal y sectario, sus planteos de medicina mejorativa, su materialismo radical, incluso sus controvertidas ideas de eugenesia, inmortalidad y singularidad adquieren creciente interés en un momento en el cual la tecnología amenaza con avanzar sobre esferas de la vida humana hasta ahora en apariencia intocables.
En noviembre de 2018, el científico chino He Jiankui anunció en Hong Kong que había editado genéticamente a dos gemelas para inmunizarlas contra el virus de inmunodeficiencia humana (vih). El experimento no había sido publicado por ninguna revista especializada ni autorizado por la Universidad de Shenzhen, en la que He investigaba. La comunidad científica reprobó en bloque la práctica y el gobierno chino condenó a He, que estuvo desaparecido unos meses y hoy se sospecha que cumple arresto domiciliario sin cargos en su oficina de Shenzhen.
Como 20 años atrás con la clonación, el escándalo de He reeditó la discusión sobre los límites de la ciencia, pero el contexto mundial es otro. Aquel optimista consenso liberal de los años 90 dio lugar al estancamiento occidental y a la emergencia de China como amenaza, pero también como modelo exitoso de capitalismo iliberal. La tentación de rebasar tecnológicamente las barreras humanistas para gobernar más o producir mejor es hoy mayor. Sin ir más lejos, el biólogo molecular ruso Denis Rebrivok ya pidió autorización a tres agencias científicas para repetir el experimento de He. Hay una corriente de pensamiento que viene predicando esa superación tecnológica de la humanidad hace al menos medio siglo: el transhumanismo. Conocer sus argumentos, sus matices y sus políticas parece necesario para afrontar un debate que viene a nuestro encuentro.
¿Qué es el transhumanismo?
El transhumanismo, o simplemente h+, es un movimiento intelectual que cuestiona los límites naturales de la humanidad y promueve diferentes maneras de superarlos por medio de la tecnología. Una exposición sencilla de sus horizontes es la de Max Tegmark, profesor de Física en el Instituto Tecnológico de Massachusetts (mit), quien divide el desarrollo de la vida en tres fases a partir de su capacidad de autodiseño: la fase biológica, cuyo hardware y software son fruto de la evolución, por ejemplo las bacterias surgidas hace unos 4.000 millones de años; la fase cultural de la especie humana, cuyo hardware es fruto de la evolución pero que pudo diseñar parte de su software; y la fase tecnológica, surgida a fines del siglo XX, que será capaz de diseñar tanto su hardware como su software. Esa tipología ya encierra los tres elementos distintivos del transhumanismo: la comprensión del ser vivo como un dispositivo, la superación tecnológica del ser humano y la autodeterminación total del sujeto.
En su premiado ensayo To Be a Machine [Ser una máquina], el periodista irlandés Mark O’Connell define el transhumanismo como un movimiento de liberación de la naturaleza. Para los transhumanistas, la naturaleza no es sagrada sino que es un deber transformarla, empezando por el genoma humano, para garantizarnos mejor vida y máximo desarrollo. El filósofo Andy Clark señala que el individuo es espontáneamente capaz de incorporar prótesis que lo mejoren, comenzando por el lenguaje, la primera tecnología incorporada a la naturaleza humana. Para el médico francés Laurent Alexandre, es casi una cuestión de supervivencia: «Al debilitarse la selección natural, el deterioro de nuestro genoma afectará particularmente nuestro sistema nervioso central y nuestro cableado neuronal. Por esta razón, la tecnomedicina que se anuncia ya no es una opción, sino una auténtica necesidad».
Parte de ese antinaturalismo implica pasar de una concepción terapéutica de la medicina a otra mejorativa: ya no se trata de curar disfunciones del cuerpo, sino de mejorar, incluso ampliar sus funciones. Ese mejoramiento va desde la corrección celular mediante nanotecnologías hasta la búsqueda de inmortalidad, pasando por la eugenesia. A diferencia de la tristemente célebre eugenesia del siglo XX, la «eugenesia democrática» que propone el transhumanismo no sería eliminativa, sino mejorativa; no sería discriminatoria, sino que extendería la igualdad legal y social a la genética; no sería estatal, sino individual: los padres elegirían el diseño genético de sus hijos.
La antropología transhumanista es brutalmente materialista: el ser humano no tiene un cuerpo sino que es un cuerpo y puede entenderse enteramente, y transformarse ilimitadamente, a partir de procesos físicos. Desde la teoría de los humores de la Antigüedad hasta el mecanicismo moderno, hay una propensión histórica de las sociedades a explicarse a sí mismas a través de la tecnología más avanzada de cada época. Hoy ese lugar lo ocupa la informática: el quantified self [yo cuantificado] transhumanista considera el ser como algo reducible a un conjunto de datos que pueden interpretarse e incluso revertirse mediante el biohacking. En este sentido, para Luc Ferry el transhumanismo no solo incurre en el determinismo no falsable de todos los materialismos, sino que forma parte del «solucionismo tecnológico» de la época.
Finalmente, el transhumanismo, con su confianza en la razón y la autodeterminación humana, es un heredero paradójico de la tradición humanista occidental.
Humanismo y transhumanismo
Dentro del transhumanismo anglosajón, se considera que el padre del concepto fue el futurista iraní nacionalizado estadounidense Fereidoun M. Esfandiary, quien habría usado el término «transhuman» en 1966 durante sus clases en la New School for Social Research de Nueva York. Sin embargo, la palabra ya figura en el artículo «Del prehumano al ultrahumano», publicado por el paleontólogo jesuita Pierre Teilhard de Chardin en 1951, que traza la futura evolución de la humanidad hasta alcanzar un estado transhumano. El evolucionismo de Teilhard incluye variables tecnológicas como «una red telefónica y televisiva que permita la sintonización directa entre cerebros», pero está inscripto en un finalismo dualista que, en última instancia, confía toda trascendencia a Dios.
Poco después, en 1957, el biólogo inglés Julian Huxley acuñó el término «transhumanismo». En busca de una ideología alternativa a la religión y el marxismo, Huxley concibe un «humanismo evolutivo», aleatorio y monista (a diferencia del de Teilhard), que trascienda lo humano: «La especie humana puede si se lo propone trascenderse a sí misma –no simplemente de manera esporádica, un individuo aquí de una forma y allá otro individuo de otra– sino en su integridad como humanidad. Tenemos la necesidad de darle un nombre a esa creencia. Puede ser que ‘transhumanismo’ sea conveniente; el hombre en tanto hombre, pero autotrascendiendo». Para el filósofo belga Gilbert Hottois, Huxley, un eugenista convencido que repudió todas las formas de racismo, es el padre de un transhumanismo progresista heredero de la tradición humanista clásica.
«El transhumanismo hunde sus raíces en el humanismo racionalista», concluye Nick Bostrom en su historia del pensamiento transhumanista, un texto cuya primera mitad es poco más que una colección de citas sin contexto del canon clásico al que el filósofo sueco reclama pertenencia: desde la autodeterminación humana de Pico della Mirandola (1486) hasta el materialismo mecanicista de Julien Offray de La Mettrie (1750), pasando por Francis Bacon, Isaac Newton, Thomas Hobbes, John Locke, Immanuel Kant y Nicolas de Condorcet. En su ensayo crítico sobre el transhumanismo, Ferry señala que, a diferencia del humanismo clásico, el progreso transhumanista pasa de la escala histórica a la evolutiva, con lo cual la voluntad de mejora excede lo social y alcanza lo biológico, además de la implícita negación de los derechos naturales que encierra su antinaturalismo.
Para Hottois, la gran mayoría de los pensadores transhumanistas no rechazan el humanismo, sino que lo critican y pretenden enriquecerlo. Según el filósofo belga, el humanismo arrastra un imaginario obsoleto, de raíz judeocristiana, predarwiniano y antropocentrista, que se resigna ante una naturaleza humana supuestamente inmutable y confina todo progreso material al entorno del ser, mientras limita su mejoramiento intrínseco a bienes simbólicos como la cultura o la ley. El aporte transhumanista sería justamente actualizar esa imagen del ser humano habilitando la incorporación de las revoluciones tecnocientíficas pasadas y las venideras. Pero al mismo tiempo, señala Hottois, el transhumanismo debe ser leal al legado humanista: universalismo, libertad, igualdad, justicia, pluralismo, empatía y pensamiento crítico, si no quiere devenir en un pensamiento tecnomístico o apocalíptico.
En la tradición de pensamiento transhumanista, el siglo XX es un parteaguas. Escritos como Icarus: The Future of Science [Ícaro. El futuro de la ciencia] (1924) de Bertrand Russell (una respuesta al eugenista Daedalus, or Science and the Future [Dédalo, o la ciencia y el futuro], de John Haldane) adelantaban la mirada sombría sobre el efecto de la tecnología, incluso el racionalismo, para la humanidad que, luego de la experiencia del nazismo y la Segunda Guerra Mundial, sería un lugar común en el pensamiento crítico occidental. Desde entonces, el hogar para las ideas de mejoramiento humano fue la ciencia ficción, hasta que el optimismo científico de la década de 1960 reavivó tímidamente el debate con la obra de Robert Ettinger y del citado Esfandiary. Sin embargo, apunta Ferry, ese renacimiento transhumanista no dejó de acusar el impacto de la contracultura de los años 60 y 70, desde la crítica a la modernidad hasta las nuevas corrientes espirituales, todas adversas al humanismo racionalista occidental. Desde la mirada humanista y republicana de Ferry, esos movimientos sentaron las premisas para la radicalización del transhumanismo en poshumanismo, una versión posmoderna de aquel que renuncia al acervo filosófico y ético del humanismo.
Inmortalidad: transhumanistas contra bioconservadores
Cuando Esfandiary, rebautizado fm-2030 en referencia al año en que esperaba morir, publicó su libro Are You a Transhuman? [¿Eres un transhumano?], en 1989, el transhumanismo ya había resucitado gracias al activismo de Max More. Nacido como Max O’Connor y formado en filosofía en Oxford, More se mudó a California en 1988 para hacer un posgrado. Allí entró en contacto con la subcultura futurista local y fundó Extropy, un movimiento que abogaba por el optimismo tecnológico y la expansión ilimitada de las capacidades humanas. La extropía –un neologismo en oposición a entropía– pronto tuvo su revista, su manifiesto y un mailing que funcionó como fuerza centrípeta del movimiento futurista, a tono con la naciente «ideología californiana» de Silicon Valley. Allí participaron futuros referentes del transhumanismo como el sueco Anders Sandberg. En 1998, Bostrom y el filósofo utilitarista David Pearce fundaron la Asociación Mundial Transhumanista (wta, por sus siglas en inglés) para «proporcionar una base organizativa general y desarrollar una forma de transhumanismo más madura y académicamente respetable»7. En 2001 la asociación quedó a cargo del sociólogo canadiense James Hughes y más tarde cambió su nombre a Humanity+8.
Si hubiera que definir un programa transhumanista de máxima, sería la inmortalidad. Ya en 1962 Ettinger comenzó a abogar por la criopreservación, que en Estados Unidos se practica desde 1966. El propio More es ceo de Alcor Life Extension, la compañía de criopreservación más grande del mundo, fundada en 1972. Más recientemente se desarrollaron proyectos para revertir el envejecimiento celular, como Estrategias para la Ingeniería de la Senescencia Insignificante (Strategies for Engineered Negligible Senescence) del gerontólogo inglés Aubrey de Grey, inspiradora a su vez de la biotecnológica Calico, perteneciente a Google; o los experimentos de la neocelandesa Laura Deming, financiados por Peter Thiel, cofundador de PayPal.
Pese a que en abril de 2019 investigadores de la Universidad de Yale lograron revivir células cerebrales de cerdos muertos9, la inmortalidad parece fuera de discusión en el mundo científico. Sin embargo, son muchos los filósofos y pensadores que salieron a debatir con el transhumanismo y se ganaron el mote de «bioconservadores». A la cabeza de los bioconservadores están dos ex-integrantes del Consejo de Bioética de George W. Bush: Leon Kass y Francis Fukuyama. Con argumentos del naturalismo aristotélico más rancio, Fukuyama habla del sacrilegio de alterar una naturaleza sabia y equilibrada, que incluye la dotación moral humana. Michael Sandel, por su parte, denuncia la hybris de pasar de una «ética de gratitud por lo dado» a una «ética de dominio del mundo», que liquidaría la humildad, la solidaridad y la inocencia de nuestra especie. En relación con la eugenesia, Jürgen Habermas señala no solo los problemas éticos de dejar a la humanidad en manos de la moda de turno entre sus padres, sino el posible reproche de nuestros hijos por determinar así su destino.
Otro conjunto de críticas apuntan a los problemas prácticos: el costo social de mantener ancianos por siglos, de financiar una mejora médica constante o de desplazar la atención de la terapia de personas al mejoramiento de embriones. Sandel y Ferry advierten que el costo de la ingeniería genética produciría nuevas desigualdades entre las familias, a punto tal de hacer coexistir varias humanidades diferentes, como ya pasó con cromañones y neandertales, con el previsible sometimiento o extinción de la más débil. Finalmente, una crítica más existencial10, ya anticipada por Jorge Luis Borges en su cuento «El inmortal», observaba que una vida eterna disuelve nuestra noción de consecuencia, de tiempo y, finalmente, de identidad. Esta disolución del yo no parece necesariamente reprobable para la versión más radicalizada del transhumanismo: el poshumanismo.
La singularidad y el poshumanismo como religión
Al igual que la comunidad transexual, los transhumanistas se sienten atrapados en el cuerpo equivocado, solo que para ellos todos los cuerpos son equivocados. Los h+ abogan por la «libertad morfológica» de adoptar cualquier soporte físico que la tecnología permita. O ninguno en absoluto. A la hora de despreciar el cuerpo, los transhumanistas apelan a la «paradoja de Teseo»: si renovamos todas nuestras células cada siete años, ¿se puede pensar que nuestra identidad reside en este cuerpo? Pero ¿qué hacer con las células cerebrales, que no se renuevan? En ese punto ciego se cifra la esperanza transhumanista en la emulación cerebral.
Desde que Sandberg y Bostrom publicaron en 2007 «Whole Brain Emulation: A Road Map» [Emulación cerebral total. Una hoja de ruta]11, muchos neurocientíficos adoptaron la premisa de que la actividad cerebral es un software que, de poder escanearse el cerebro, podría ser reproducido en cualquier plataforma. Si pudimos hacer que la música suene igual en un cd, un mp3 o la nube, ¿por qué no podríamos hacer lo mismo con la mente? La mayoría de estas investigaciones se presentan ante la comunidad médica como herramientas de diagnosis y neuroprótesis. Pero muchos sueñan en voz baja con poder escanear un cerebro, emularlo, reescribirlo, mejorarlo y subirlo a una computadora. No por nada detrás de estos desarrollos también están los dólares de Thiel y su ex-socio en PayPal, Bryan Johnson, un convencido de que «todo en la vida es un sistema operativo». O’Connell encuentra en el proyecto un paradójico materialismo idealista, que parte de entender la mente como una propiedad emergente de la relación entre cosas físicas para terminar creyendo que es posible separarla del cuerpo para salvarla. A partir del discutido «principio antrópico cosmológico», Sandberg concluyó que, para sobrevivir, la humanidad debe expandirse al cosmos, pero solo puede hacerlo separando la mente de su cuerpo y convirtiéndola en energía. Esa confluencia de mente y materia, de humanidad y tecnología, será el paso de la particularidad física a la singularidad. Ese es el salto de fe del transhumanismo hacia el poshumanismo.
El concepto de «singularidad» (singularity) apareció por primera vez en una necrológica de 1958 que el matemático polaco Stanisław Ulam le dedicó a su colega John von Neumann, del Proyecto Manhattan: «el siempre acelerado progreso de la tecnología y los cambios en el modo de vida humana, la cual da la impresión de aproximarse a una singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, tal como los conocemos, no podrían continuar». Más adelante, Vernor Vinge usó el término para hipotetizar sobre el desarrollo de una inteligencia artificial superior a la humana que amenaza a nuestra especie, un tema que preocupa a los transhumanistas más críticos12.
Fue Ray Kurzweil, director de ingeniería de Google desde 2012, quien tomó la singularidad en un sentido visionario y militante. A partir de la ley de Moore sobre el desarrollo progresivo de la potencia informática, Kurzweil proyecta una evolución lineal y finalista: «mucho del pensamiento humano es derivativo, baladí y circunscrito. Esto terminará con la singularidad, la culminación de la fusión entre nuestro pensamiento y existencia biológica y nuestra tecnología, resultando en un mundo aún humano pero que trascienda nuestras raíces biológicas». En el poshumanismo de Kurzweil, el optimismo tecnológico californiano convive con un cosmismo panteísta más propio de la new age o la «ecología profunda», que conciben el planeta como una persona y la inteligencia colectiva de la humanidad como su sistema nervioso. Y también el antihumanismo filosófico que ya anticipara Jean-François Lyotard en Lo inhumano, hoy retomado por realistas especulativos adversos al posmodernismo, como Ray Brassier o Quentin Meillasoux: la posibilidad de pensar un mundo sin humanos, ergo, un pensamiento sin sujeto. O como dirían los h+, un software sin hardware.
Una vez llegados a este punto, es inevitable concluir con O’Connell que el rabiosamente ateo transhumanismo es también una religión, con su comunión (la singularidad), su transmigración de las almas (la emulación cerebral) y hasta su limbo (la criopreservación). Queda por ver, siguiendo el famoso apotegma de Carl Schmitt, si hay en esta particular teología secular algún concepto político.
Políticas del transhumanismo
Desde sus orígenes como movimiento en la década de 1980, el transhumanismo tuvo una marcada afinidad con el liberalismo libertario. La primera declaración de principios de Extropy incluía el «orden espontáneo» de la sociedad, así como la remoción de todo límite a la autorrealización personal. Si bien sucesivas reformulaciones de esos principios moderaron esa postura, la lista de lecturas recomendadas de Extropy no dejaba muchas dudas: Friedrich Hayek, Karl Popper, Ronald H. Coase y David Friedman. Hasta su dispersión a mediados de los años 2000, los foros extropianos seguían hegemonizados por varones jóvenes autoproclamados libertarios, refractarios al ecologismo y el feminismo. El caso de Thiel es más complejo: no solo se define libertario, sino que mantiene contactos con el movimiento neorreaccionario (nrx) de Nick Land y Curtis Yarvin, alias Mencius Moldbug, una corriente de la derecha alternativa radicalmente opuesta al igualitarismo y el legado iluminista. Las ideas de superioridad humana y eugenesia atrajeron más de una vez a neonazis a los foros transhumanistas, en especial en 2000, cuando la web racista Xenith.com se afilió al movimiento. En todos los casos, los referentes tomaron distancia. Los transhumanistas europeos, como Bostrom y Sandberg, notaron el sesgo libertario del movimiento norteamericano y fundaron la wta sobre principios políticos más diversos. La declaración transhumanista de 1998 advierte sobre los riesgos de la tecnología, adhiere a la ética utilitarista, se pronuncia contra todo autoritarismo político y se muestra abierta a un amplio rango de opiniones, desde el liberalismo hasta la socialdemocracia. Aun así, para críticos como Éric Sadin, el transhumanismo es la ideología de la burguesía digital de Silicon Valley. De hecho, Kurzweil y Thiel provienen de esa clase social. Franco Berardi lo explica como una forma de retroceder a la naturaleza a través de la tecnología. El transhumanismo procura perfeccionar la inteligencia desacoplándola de la sensibilidad, entendida como debilidad. Pero para Berardi la democracia social se sostiene en un equilibrio entre inteligencia y sensibilidad: la autonomía de la política como límite consciente y sensible de la racionalidad es la base de la garantía de igualdad social sobre las desigualdades naturales. La hegemonía del poder financiero arrasó con ese proyecto, y el transhumanismo es la expresión tecnooptimista del retorno al darwinismo.
O’Connell, por el contrario, señala que el transhumanismo nos propone liberarnos de la naturaleza sometiéndonos a la tecnología. Ese proyecto no solo alimenta un paradigma en el que los seres humanos podemos terminar desplazados por dispositivos más útiles y poderosos, sino que también se condice con las formas de control tecnológico desarrolladas por el complejo industrial militar. Fue Michael Goldblatt, director de la Oficina de Ciencias de Defensa de la Agencia de Proyectos de Investigación Avanzados del Departamento de Defensa de eeuu (darpa), quien en 1999 anunció que «la próxima frontera está dentro de nosotros mismos», frase que haría las delicias de cualquier transhumanista. La conclusión de O’Connell es que los dos principios del capitalismo estadounidense, el individuo y la autosuperación, colisionan en un momento histórico en el que para superarnos quizás debamos dejar de ser individuos. Podemos agregar que esa contradicción es la que subyace a la competencia entre el capitalismo estadounidense, hegemónico durante el siglo XX, y el chino… ¿hegemónico durante el siglo XXI?
¿Es posible un transhumanismo progresista?
«Entre el apoliticismo de tendencia tecnocrática, el liberalismo y el neoliberalismo, el libertarismo y la socialdemocracia, el posicionamiento del transhumanismo sigue siendo irreductiblemente diverso, contradictorio incluso después de los esfuerzos de unificación de la wta», concluye Hottois y se vale de esa diversidad para abogar por un transhumanismo progresista que retome la tradición de Huxley: «hay que luchar en dos frentes: el humanista clásico y el transhumanista. Un sueño transhumanista pasa por conciliar individualismo y socialismo».
Durante todo el siglo XIXy hasta la Segunda Guerra Mundial, la izquierda compartió la confianza en la tecnología y la evolución humana del positivismo dominante. Intelectuales como John Haldane o H.G. Wells vieron en el socialismo primero y en el experimento soviético después un modelo de gobierno racional que encarrilara el progreso tecnológico en dirección al bienestar humano. Una tradición olvidada por los transhumanistas es la de los biocosmistas rusos. Estos intelectuales contemporáneos a la revolución de 1917, siguiendo la estela del místico cientificista Nicolai Fedorov, incorporaron el mejoramiento humano en la agenda socialista y discutieron cada uno de los tópicos transhumanistas: Alexander Svyatogor consideraba que la inmortalidad y la libertad de movimiento en el cosmos debían ser los principales objetivos del comunismo; Valerian Muravyov entendió la resurrección como proceso lógico de la reproductibilidad técnica; Konstantín Tsiolkovski concebía el cerebro como parte material del universo y proyectó maneras de reubicar a la población resucitada en otros planetas que más tarde fueron empleadas por la cosmonáutica soviética; por último, Alexander Bodganov, director del Proletkult, creó también un Instituto para la Transfusión de Sangre para detener el envejecimiento, práctica que lo llevó a la muerte.
James Hughes mapeó políticamente el transhumanismo en busca de tendencias de izquierda16. Allí caben desde el ecologismo no ludita de Walter Truett Anderson, partidario de una gestión tecnológica de la naturaleza para evitar su colapso, al darwinismo de izquierda de Peter Singer, partidario de emplear la genética para modificar los aspectos agresivos del hombre. Entre utopías sci-fi y propuestas aceleracionistas, destacan dos tendencias claras de transhumanismo izquierdista. Una es el movimiento grinder: biohackers como Tim Cannon o Lepht Anonym que intervienen sus propios cuerpos en un intento por evitar que Google y otras corporaciones controlen la singularidad. Si bien son esencialmente performativos y en términos políticos no van más lejos que el libertarismo anticorporativo, los grinders recuperan la apuesta del Manifiesto cyborg de Donna Haraway: asumir que la sociedad ya nos hizo poshumanos y usar ese dato para emanciparnos de ella.
La otra tendencia, de corte más socialdemócrata, es la del propio Hughes en su libro Citizen Cyborg [Ciudadano ciborg]: un «transhumanismo democrático» que garantice mediante políticas públicas la seguridad y el acceso a las nuevas tecnologías de todos los individuos que quieran controlar sus propios cuerpos. Hughes piensa esencialmente en personas con discapacidades, pero podemos extender ese criterio. Desde la identidad sexual hasta la legalización del aborto, un grueso de los debates y luchas políticas contemporáneos se dan por el control del cuerpo. La crítica literaria Katherine Hayles, por ejemplo, aboga por un «transhumanismo deconstructivo». Sin adherir expresamente al h+, el xenofeminismo de Helen Hester o el trabajo de Paul B. Preciado con la testosterona recuperan la idea de emancipación antinaturalista.
El transhumanismo es un movimiento con límites y axiomas, como todos, pero también con una plasticidad política y filosófica que vale la pena al menos discutir. Sería un error que la izquierda, dentro del paradigma crítico de la modernidad que arrastra desde la posguerra, adhiriera a nociones sacralizadoras de la naturaleza, como lo hacen, por ejemplo, ciertas corrientes inspiradas en el autonomismo de Iván Illich. No solo porque muchos argumentos bioconservadores están muy cerca de ser lisa y llanamente conservadores (por ejemplo, el naturalismo aristotélico-tomista, apto para criticar tanto la inmortalidad como la homosexualidad, según en qué manos caiga). También, y fundamentalmente, porque el actual direccionamiento político del desarrollo tecnológico define una agenda en la que las corporaciones ya parecen tener un proyecto. Replegarse en argumentos reactivos sería ceder la iniciativa futurista a esos intereses. Si no pensamos el futuro, alguien lo hará por nosotros.

https://nuso.org/articulo/hacia-un-futuro-transhumano/  

 

-IV-

Los científicos de Cambridge que estudian qué va a terminar con la humanidad (y cómo salvarnos)
8 octubre 2020
La Tierra existe desde hace 45 millones de siglos y sin embargo este que estamos viviendo es único en la historia.
"Es el primer siglo en el que una especie, la nuestra, ostenta tanto poder y es tan dominante que tiene el futuro del planeta en sus manos", escribe el prestigioso astrónomo británico Martin Rees en "En el futuro. Perspectivas para la humanidad".
"Lo que está en juego es más importante que nunca; lo que ocurra en este siglo se hará sentir durante miles de años", sentencia en dicho libro de 2018.
En verdad Rees lleva más de dos décadas repitiendo estas advertencias que, para una amplia mayoría, sonarían interesantes, pero improbables. Quizás en aquel entonces, más que ciencia, parecían propias de ciencia ficción.
De hecho, él mismo reconoció en una charla TED que "nos preocupamos demasiado por riesgos menores: accidentes aéreos improbables, sustancias cancerígenas en los alimentos, dosis bajas de radiación... Pero nosotros y los políticos que nos gobiernan vivimos en negación de los escenarios catastróficos".
Entonces llegó 2020 y cada palabra de Rees pasó a tener una escalofriante vigencia.
 
Por ejemplo, en esa charla que dio en 2014 afirmaba que ahora "los peores peligros vienen de nosotros": "Y no solo está la amenaza nuclear. En nuestro mundo interconectado (...) los viajes en avión pueden propagar pandemias en cuestión de días; y las redes sociales pueden divulgar pánico y rumores literalmente a la velocidad de la luz".
Sin embargo, hubo quienes no necesitaron la pandemia de covid-19 para escuchar a Rees. Desde 2015 un pequeño grupo interdisciplinario de investigadores trabaja bajo su liderazgo en el llamado Centro para el Estudio de Riesgo Existencial (CSER) en la Universidad de Cambridge, en Reino Unido.
El centro, que ha contado con el asesoramiento de destacadas figuras de la academia —como el físico Stephen Hawking— y de la industria —como el empresario Elon Musk—, investiga los peligros que podrían llevar a la extinción de la humanidad o al colapso de la civilización y qué hacer para mitigarlos.
Es justamente en este segundo aspecto que trabaja la bióloga molecular peruana Clarissa Ríos Rojas, quien ingresó al CSER en marzo, poco antes de que el gobierno británico decretara la cuarentena por coronavirus.
"Ya hemos tenido pandemias antes y sin embargo, covid-19 nos agarró desprevenidos", dice Ríos a BBC Mundo. "Entonces, ¿qué falló? ¿Cuáles son las lecciones que podemos aprender de este experimento y cómo podemos prepararnos nuevamente para el futuro?", se pregunta.
En otras palabras, su trabajo en Cambridge consiste en identificar por qué las predicciones basadas en datos científicos no son escuchadas y, en consecuencia, generar políticas públicas que preparen a la humanidad para la próxima catástrofe global.
Así como la profunda crisis provocada por el coronavirus no fue la primera, tampoco será la última.
5 áreas de riesgo
Lo primero que explica Ríos es que existe una diferencia entre riesgo catastrófico y existencial.
Si bien las definiciones varían levemente entre ellas, en general se entiende que los eventos de riesgo catastrófico son aquellos que, de ocurrir, terminarían con la vida del 10% de la población mundial o provocarían un daño equivalente.
Para tener una referencia, se considera que el evento más letal del siglo XX fue la pandemia de influenza de 1918, más conocida como gripe española, donde murieron entre el 1% y 5% de la población mundial, según distintos estimativos.
En cambio, un evento de riesgo existencial implica la aniquilación de todos los seres humanos o una reducción poblacional tan grande que no permita continuar con los estándares de vida actuales, que menoscabe drástica y permanentemente su potencial.
 
El CSER estudia este último tipo de eventos, a los cuales divide en cinco grandes áreas: riesgos biológicos, ambientales, tecnológicos, derivados de la inteligencia artificial y de las injusticias sociales.
Algunos ejemplos son muy claros, como las pandemias dentro del área biológica o el cambio climático en la ambiental. De hecho, otros riesgos naturales —como el impacto de un asteroide o la erupción de un supervolcán— están muy presentes en el imaginario colectivo, ya que han demostrado su poder devastador en el pasado.
Pero existen otros riesgos existenciales menos evidentes, como el de la inteligencia artificial.
"El miedo con la inteligencia artificial no es que surja un Arnold Schwarzenegger que nos mate a todos", dice Ríos en referencia al personaje de Terminator en la primera película de la saga.
"En realidad puede pasar que, para lograr el objetivo de salvar a la humanidad, se destroce todo el ecosistema porque no se le dieron los parámetros necesarios para guiar a esa inteligencia artificial que sigue aprendiendo por sí sola", explica.
En este caso, la tarea de Ríos sería, por ejemplo, trabajar junto con los gobiernos para establecer protocolos y herramientas de monitoreo de las instituciones del área, o asegurar que los programas de estudios de las universidades vinculadas a la ingeniería tengan una fuerte base de ética.
La injusticia social es otra de las áreas cuyo nivel de riesgo puede no ser tan notorio. Pero existe un ejemplo muy claro en la historia: la conquista europea de América.
Este episodio "derivó en la pérdida potencial de más del 80% de las poblaciones indígenas, el colapso de las civilizaciones azteca, inca y zapoteca, y la muerte, tortura, disrupción cultural y desestabilización política que ocurrieron como resultado de la trata transatlántica de esclavos", afirma CSER en su página web.
Y agrega: "Hasta el día de hoy, la colonización europea continúa teniendo impactos catastróficos a escala mundial, incluida la desatención de las enfermedades tropicales".
Efecto covid-19
Según Ríos, la pandemia de covid-19 —que ya se cobró más de 1 millón de vidas a lo largo del mundo—, está enseñando a los gobiernos y la sociedad qué significa prepararse para lo peor.
"Uno podría pensar que solamente se vería afectado el sector salud, pero en realidad se vio afectado el transporte, la agricultura, la educación, la economía, el trabajo…", agrega.
 
De acuerdo con la investigadora peruana, una forma de incorporar estas lecciones a nivel de política pública podría ser crear equipos gubernamentales que analicen potenciales riesgos catastróficos vinculados al país o la región (como el cambio climático en Centroamérica o las armas nucleares en la península de Corea) y generen protocolos de acción.
Pero, como reconoce Ríos, "las políticas pueden ser bellas, pero si la sociedad no quiere aceptarlas y, por ejemplo, sigue saliendo a la calle sin mascarillas, entonces no sirven de nada".
Para lograr el compromiso social, se podría incorporar un módulo sobre qué aprendimos de la pandemia de covid-19 en los programas de secundaria o crear un máster de riesgo global catastrófico, ejemplifica.
"Si queremos poner estos tópicos dentro de la agenda política, tiene que haber un esfuerzo mancomunado y no solo de la Universidad de Cambridge", afirma Ríos. "Necesitamos una mentalidad de ciudadanía global".

https://www.bbc.com/mundo/noticias-54438847


Amiga, Amigo:

La Futurología es una pseudo ciencia con bajo porcentaje de aciertos al igual como lo serán los artículos acá dejados para el escrito 628. Lo hago para ser cautos frente a pronósticos ahora más inciertos por la paranoica actitud de Putin en el delirante anhelo de su Gran Rusia, lo digo sin ser yo un Futurólogo...

Dr. Iván Seperiza Pasquali
Quilpué, Chile
Marzo de 2022
Portal MUNDO MEJOR: http://www.mundomejorchile.com/
Correo electrónico: isp2002@vtr.net