29 julio 2008

Otro apocalipsis. El transhumanismo, una de las ideas, más peligrosas de la historia humana.

.
La semana pasada aconteció el primer congreso sobre riesgos catastróficos globales, en las instalaciones del Instituto del Futuro de la Humanidad, un centro de investigación multidisciplinario de la Universidad de Oxford. Los expertos ahí reunidos discutieron las medidas que deben tomarse para prevenir aquellas situaciones que pueden llevar al fin de la vida humana en la Tierra (¿en dónde más?). Desde erupciones volcánicas, accidentes nucleares y experimentos científicos fuera de control, hasta colapsos económicos. Los riesgos catastróficos globales luchan por establecerse como un tema de estudio serio, coherente e importante. (Por Priscilla Higuera en Exelsior.com)
.

Los temas que se trataron en específico fueron: terrorismo nuclear, amenazas cósmicas, el destino del universo, pandemias, nanotecnología, desastres ecológicos, cambio climático, biotecnología y bioseguridad, colapso social y el papel de las aseguradoras en lo desastres. Sin embargo, siempre hay un tema favorito y aunque el cambio climático podría haber destacado, no fue así. En esta ocasión el tema que más revuelo causó fue el de las consecuencias no intencionales de las nuevas tecnologías que pudieran causar la extinción de la raza humana.

La agitación no es gratuita, ya que el director del Instituto no es otro que Nick Bostrom, uno de los representantes más famosos del transhumanismo, un movimiento intelectual que defiende la idea de que la tecnología puede ser utilizada para mejorar sustancialmente a los seres humanos, donde gracias a la biotecnología la especie humana será más fuerte, inteligente y longeva.

Las ideas que son analizadas por esta corriente le han traído un buen número de adeptos, pero también de opositores, de los últimos el más conocido podría ser Francis Fukuyama, el mismo que a finales de los ochenta hablaba del fin de la historia, quien llamó al transhumanismo “una de las ideas más peligrosas del mundo” en un artículo que publicó en la revista Foreign Policy, opinión a la que precisamente Bostrom dio respuesta.

Las ideas que defiende el transhumanismo no pueden tomarse a la ligera, por ejemplo, se propone y defiende una tecnología llamada mind uploading, donde se genera una copia de seguridad de la información contenida en la mente de una persona para que en caso de accidente sea recargada en un cerebro biológico o robótico. Por supuesto, los transhumanistas no dejan de considerar los problemas filosóficos relacionados con la identidad, el concepto de “yo” y demás que podría presentar tal tecnología. De hecho, están atentos a los peligros que podrían originarse del empleo de tecnologías similares en un futuro, de ahí el congreso en Oxford.

La conferencia Pequeñas máquinas: los impactos aparentes de la producción molecular, de Mike Treder y Chris Phoenix, fundadores del Centro para la investigación de la nanotecnología responsable, trató sobre cómo la manufactura de moléculas —una forma de construir poderosos productos átomo por átomo— puede traer riesgos catastróficos, por lo que se debe inmediatamente planear una regulación internacional. Entre los riesgos se habla de armamento de rápida movilidad que acelerará la carrera hacia una guerra mundial, desajustes económicos y sociales severos, inteligencias modificadas radicalmente, entre otros.

El congreso se puede resumir en la conferencia de Sir Crispin Tickell, ex rector de la Universidad de Kent, quien habló del impacto que las actividades humanas han dejado en la Tierra especialmente los últimos 250 años y cómo la tecnología podría ser la salvación o la perdición del hombre, dependiendo de si éste logra cambiar radicalmente su forma de pensar, en especial globalmente, de lo contrario, como dijo otro de los ponentes, es necesario comenzar a pensar de forma sistematizada el fin del mundo.