marzo 2010 Archives

0

Nick Bostrom, filósofo y creador del movimiento transhumanista al que define como sigue:

1. El movimiento intelectual y cultural que afirma la posibilidad y la conveniencia de mejorar fundamentalmente la condición humana a través de la razón aplicada, especialmente mediante el desarrollo y la amplia divulgación de tecnologías para eliminar el envejecimiento y mejorar humano intelectual, físico, psicológico y capacidades.
2. El estudio de las ramificaciones, promesas, y los posibles peligros de las tecnologías que nos permiten superar las limitaciones humanas fundamentales, así como de los temas éticos involucrados en el desarrollo y utilización de estas tecnologías.

Bostrom desde posiciones transhumanistas advierte sobre los riesgos que esta puede traer y los nombra como riesgos existenciales

Estos son algunos de los riesgos existenciales que menciona Nick Bostron (aquellos que tienen que ver con la acción humana,
1. Mal uso de las tecnologías.
2. Guerras nucleares.
3. Pandemias.
4. Aristocracia posthumana.
5. Mala programación de una superinteligencia.
6. Superinteligencia autónoma que asume los valores de poder.
7. Criogenización y superpoblación.
8. Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).
9. Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la practica
10. Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.

Y reconoce como uno de los mayores riesgos, el mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se considera los errores humanos, que un virus se escape de un laboratorio.

O el de una inteligencia artificial (IA) que por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no seria extraño que la IA respondiera a fines hegemónicos y fuera herramienta en manos de políticos cuyo interés se basa en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador.

También hace referencia a una extinción por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinción donde la lucha por el poder llega a límites extremos.

Otros de los riesgos, según Bostron, radican en que solo un grupo pueda alcanzar la posthumanidad. Lo cual parece bastante lógico dada los desequilibrios insostenibles y las desigualdades existentes, que siguen creciendo y si hoy hablamos de brecha digital, mañana hablaremos de una brecha tecnológica que dará lugar a una tecnocracia que se asuma el papel de una raza superior y tome el control del mundo

Una de las mayores preocupaciones de Bostrom como creador del transhumanismo, es que no se llegue a alcanzar la posthumanidad, de ahí su temor a que surjan leyes que prohíban ciertas investigaciones o aplicaciones que limiten o frenen el camino hacia una transhumnidad, para el, la única solución viable para la humanidad.

Bostrom, al final de sus hipótesis sobre los riesgos reconoce, por fin, que muchas estrategias a largo plazo se deben delegar (al igual que un jefe delega a un subordinado) a las generaciones futuras ya que no hay nada que podamos hacer