{"id":439,"date":"2013-04-29T20:52:38","date_gmt":"2013-04-29T20:52:38","guid":{"rendered":"http:\/\/cibernetica.wordpress.com\/?p=439"},"modified":"2013-04-29T20:52:38","modified_gmt":"2013-04-29T20:52:38","slug":"nos-acercamos-al-fin-de-la-humanidad-2","status":"publish","type":"post","link":"https:\/\/blogs.sld.cu\/cibernetica\/2013\/04\/29\/nos-acercamos-al-fin-de-la-humanidad-2\/","title":{"rendered":"\u00bfNos acercamos al fin de la humanidad?"},"content":{"rendered":"<p>\u00bfC\u00f3mo podemos saberlo? \u00bfQu\u00e9 est\u00e1 sucediendo o que podr\u00eda suceder?<\/p>\n<p style=\"text-align:justify\">Si el mayor peligro\u00a0 para el fin de la humanidad a mediados y finales del siglo XXI, era el de una guerra nuclear, hoy a comienzos del siglo XXI, aparecen otros problemas que se presentan como m\u00e1s posibles y catastr\u00f3ficos.<\/p>\n<p style=\"text-align:justify\">Hoy son dos los escenarios que pone en peligro a la raza humana: la degradaci\u00f3n del planeta y el desarrollo acelerado de las tecnolog\u00edas, que cada vez responde menos al desarrollo humano, y parece escapar\u00a0 a todo control. Siendo la aceleraci\u00f3n tecnol\u00f3gica representa un mayor peligro que el deterior del planeta.<\/p>\n<p style=\"text-align:justify\">Afirmaci\u00f3n que parece confirmar el equipo de cient\u00edficos que trabajan en el Instituto del Futuro de la Humanidad de la Universidad de Oxford,\u00a0 \u00a0quienes est\u00e1n investigando cu\u00e1l es el mayor peligro para la supervivencia del Hombre como especie. Los mismos han llegado a la conclusi\u00f3n que la supervivencia de la humanidad est\u00e1 en riesgo, y no por la amenaza de una pandemia, un bombardeo nuclear, meteorito u otro tipo de cat\u00e1strofe natural; el mayor riesgo proviene de nosotros mismo.<\/p>\n<p style=\"text-align:justify\">El director del instituto, el fil\u00f3sofo sueco Nick Bostrom, en el documento <i>Riesgo existencial como prioridad global,<\/i> argumenta que los dirigentes internacionales tienen que prestarle mucha atenci\u00f3n a una serie de amenazas y advierte: \u201clo que est\u00e1 en juego no puede ser m\u00e1s importante: si nos equivocamos, \u00e9ste puede ser el \u00faltimo siglo de la humanidad\u201d. A lo que insiste \u201cSon <strong><span style=\"font-weight:normal\">amenazas sobre las que no tenemos historial de supervivencia\u201d<\/span><\/strong><b>.<\/b><\/p>\n<p style=\"text-align:justify\">\u00bfEn qu\u00e9 consiste esa amenaza? Veamos las opiniones de los expertos y del propio Bostrom<\/p>\n<p style=\"text-align:justify\">Experimentos en \u00e1reas como biolog\u00eda sint\u00e9tica, nanotecnolog\u00eda e inteligencia artificial se est\u00e1n precipitando hacia el territorio de lo accidental e imprevisto.<\/p>\n<p style=\"text-align:justify\">La biolog\u00eda sint\u00e9tica, en la que la biolog\u00eda se encuentra con la ingenier\u00eda, promete importantes beneficios m\u00e9dicos. A Bostrom le inquietan las <strong><span style=\"font-weight:normal\">secuelas inesperadas de la manipulaci\u00f3n de las fronteras de la biolog\u00eda humana<\/span><\/strong><b>.<\/b><\/p>\n<p style=\"text-align:justify\">La creaci\u00f3n de nuevos organismos, por ejemplo, puede tener efectos secundarios ecol\u00f3gicos desconocidos.<\/p>\n<p style=\"text-align:justify\">\u00a0Vivimos en un mundo m\u00e1s interconectado: m\u00e1s noticias y rumores se difunden a la velocidad de la luz. Por ello, las consecuencias de un error o terror son m\u00e1s desmedidas que en el pasado\u201d.<\/p>\n<p style=\"text-align:justify\">Nos preocupamos por riesgos individuales m\u00e1s inmediatos, como los vuelos a\u00e9reos o seguridad alimentaria, tenemos m\u00e1s dificultad en reconocer peligros m\u00e1s serios.<\/p>\n<p style=\"text-align:justify\">Se\u00e1n O\u2019Heigeartaigh, un genetista del instituto y experto en evoluci\u00f3n molecular, desconf\u00eda de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones gen\u00e9ticas, desmantelando y reconstruyendo las estructuras gen\u00e9ticas. Siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente.<\/p>\n<p style=\"text-align:justify\">\u201cEstamos desarrollando cosas que pueden resultar profundamente mal\u201d, declara O\u2019Heigeartaigh. Estos no son conceptos abstractos, asegura. \u201cCon cualquier nueva poderosa tecnolog\u00eda \u2013opina O\u2019Heigeartaigh\u2013, debemos pensar detenidamente en qu\u00e9 sabemos, pero quiz\u00e1s es m\u00e1s importante en este momento estar conscientes de lo que no estamos seguros de saber\u201d.<\/p>\n<p style=\"text-align:justify\">\u00b7La nanotecnolog\u00eda, trabaja a nivel molecular o at\u00f3mico, tambi\u00e9n podr\u00eda tornarse en algo altamente destructivo si se usa para la guerra\u201d, apunta Bostrom. \u201cPor ello, escribi\u00f3 que los gobiernos futuros enfrentar\u00e1n el gran reto de controlar y restringir su mal uso\u201d.<\/p>\n<p style=\"text-align:justify\">La manera en la que la inteligencia artificial interactuar\u00e1 con el mundo exterior es otro de los temores del grupo de expertos reunidos en Oxford. Esa \u201cinteligencia\u201d inform\u00e1tica puede ser una herramienta poderosa para la industria, medicina, agricultura o el manejo de la econom\u00eda. Pero tambi\u00e9n es completamente indiferente a cualquier perjuicio fortuito.<\/p>\n<p style=\"text-align:justify\">Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una \u201cexplosi\u00f3n de inteligencia\u201d en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. \u201cLa inteligencia artificial es una de las tecnolog\u00edas que pone m\u00e1s y m\u00e1s poder en paquetes m\u00e1s y m\u00e1s peque\u00f1os\u201d, dice, quien antes trabaj\u00f3 en Google. \u201cAs\u00ed como con la biotecnolog\u00eda y la nanotecnolog\u00eda, se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo\u201d.<\/p>\n<p style=\"text-align:justify\">\u00bfDebemos aplicar todo el avance tecnol\u00f3gico? \u00bfQu\u00e9 posici\u00f3n asumir?<\/p>\n<p style=\"text-align:justify\">\u201c\u00c9sta no es una ficci\u00f3n dist\u00f3pica: la brecha entre la velocidad del avance tecnol\u00f3gico y nuestro conocimiento de sus implicaciones es real\u201d, recalca Bostrom.<\/p>\n<p style=\"text-align:justify\">Ya Van R. Potter, el bioeticista norteamericano, hac\u00eda referencia a la necesidad de alcanzar los conocimientos necesarios para poder manejarnos con las tecnolog\u00edas y de la necesidad de crear un puente entre las humanidades y las ciencias.<\/p>\n<p style=\"text-align:justify\">Bostrom no parece estar muy seguro de la tecno-utopia de una singularidad tecnol\u00f3gica, donde basta con acelerar a las tecnolog\u00edas a toda costa y dice: \u201cel avance en la tecnolog\u00eda ha rebasado nuestra capacidad de controlar las posibles consecuencias. Y agrega:<b> <\/b>\u201cEstamos al nivel de los ni\u00f1os en t\u00e9rminos de responsabilidad moral, pero con la capacidad tecnol\u00f3gica de adultos\u201d.<\/p>\n<p style=\"text-align:justify\">Hasta ahora hemos apostado por el progreso tecnol\u00f3gico y se ha ignorado el progreso humano, de ah\u00ed las consecuencias que se vislumbran hacia una tecnolog\u00eda fuera de control. Podemos afirma que vamos a ciegas hacia el futuro y significativo, que un pionero de la ideolog\u00eda transhumanista, como Nick Bostrom, comience a preocuparse de las consecuencias imprevista de la aplicaci\u00f3n sin control de las tecnolog\u00edas.<\/p>\n<p style=\"text-align:justify\">Coincido con Bostrom en que el cambio est\u00e1 pr\u00f3ximo y que no se dado la importancia que merece. No podemos ignorar que Bostrom es un defensor del tranhumanismo, del cual hemos estado hablando en art\u00edculos anteriores. De ah\u00ed sus conclusiones.<\/p>\n<p style=\"text-align:justify\">\u00a0\u201cHay un cuello de botella en la historia de la humanidad. La condici\u00f3n humana va a cambiar. Puede ser que termine en una cat\u00e1strofe o que nos transformemos tomando m\u00e1s control de nuestra biolog\u00eda\u201d.<\/p>\n<p style=\"text-align:justify\">Recomendaci\u00f3n:<br \/>\n<a title=\"IA el futuro del hombre\" href=\"http:\/\/www.amazon.com\/Inteligencia-Artificial-futuro-Spanish-ebook\/dp\/B00CP89UR4\/ref=sr_1_1?s=books&amp;ie=UTF8&amp;qid=1375469659&amp;sr=1-1\">Inteligencia Artificial, el futuro del hombre<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u00bfC\u00f3mo podemos saberlo? \u00bfQu\u00e9 est\u00e1 sucediendo o que podr\u00eda suceder? Si el mayor peligro\u00a0 para el fin de la humanidad a mediados y finales del siglo XXI, era el de una guerra nuclear, hoy a comienzos del siglo XXI, aparecen otros problemas que se presentan como m\u00e1s posibles y catastr\u00f3ficos. Hoy son dos los escenarios [&hellip;]<\/p>\n","protected":false},"author":109,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[7],"tags":[18,91,123,157,217,269],"_links":{"self":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts\/439"}],"collection":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/users\/109"}],"replies":[{"embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/comments?post=439"}],"version-history":[{"count":0,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts\/439\/revisions"}],"wp:attachment":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/media?parent=439"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/categories?post=439"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/tags?post=439"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}