{"id":46,"date":"2008-08-13T19:23:11","date_gmt":"2008-08-13T19:23:11","guid":{"rendered":"http:\/\/cibernetica.wordpress.com\/?p=46"},"modified":"2008-08-13T19:23:11","modified_gmt":"2008-08-13T19:23:11","slug":"los-riesgos-del-futuro","status":"publish","type":"post","link":"https:\/\/blogs.sld.cu\/cibernetica\/2008\/08\/13\/los-riesgos-del-futuro\/","title":{"rendered":"Los riesgos del futuro"},"content":{"rendered":"<p>Las amenazas son los efectos que estamos sufriendo de las acciones humanas dado nuestro contexto actual de dominio que ha provocado el crecimiento acelerado de dos par\u00e1metros: la degradaci\u00f3n del planeta y el desarrollo de la tecnolog\u00eda con fines hegem\u00f3nicos.<\/p>\n<p>Dentro de las amenazas que enfrenta la humanidad esta las del presente, las que ya estamos sintiendo sus efectos y las futuras, las que producto de nuestro sistema social y econ\u00f3mico, estructurado sobre la base del poder, podr\u00edan conducirnos a una mala utilizaci\u00f3n de las tecnolog\u00edas, ya sea por errores o con fines destructivos. A las amenazas futuras, el fil\u00f3sofo y tecnofuturista norteamericano Nick Bostrom, las llama riesgos existenciales.<\/p>\n<p>Vamos a ver los algunos de los riesgos existenciales que menciona Nick Bostron (aquellos que tienen que ver con la acci\u00f3n humana,<\/p>\n<p>1. Mal uso de las tecnolog\u00edas.<br \/>\n2. Guerras nucleares.<br \/>\n3. Pandemias.<br \/>\n4. Aristocracia posthumana.<br \/>\n5. Mala programaci\u00f3n de una superinteligencia.<br \/>\n6. Superintenligencia aut\u00f3noma que asume los valores de poder.<br \/>\n7. Criogenizaci\u00f3n y superpoblaci\u00f3n.<br \/>\n8. Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).<br \/>\n9. Dificultades tecnol\u00f3gicas. Que la transhumanidad no se pueda llevar a la practica<br \/>\n10. Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.<\/p>\n<p>El mal uso de la tecnolog\u00eda, con fines hegem\u00f3nicos, el consumismo y el militarismo entre otros factores, ha tra\u00eddo como consecuencia, la contaminaci\u00f3n, la degradaci\u00f3n de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnolog\u00edas, tambi\u00e9n se considera los errores humanos, ej.,que un virus se escape de un laboratorio.<\/p>\n<p>Si en la anterior nos refer\u00edamos a una extinci\u00f3n por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinci\u00f3n donde la lucha por el poder llega a l\u00edmites extremos.<\/p>\n<p>Aqu\u00ed estamos considerando los escenarios que tienen que ver con la acci\u00f3n humana, por eso no se tienen en cuenta otros como los supervolcanes, tsumani, choque con un meteorito, etc. En el caso de las pandemias estas pueden ser productos de la mala manipulaci\u00f3n humana de los virus y de experimentos no seguros.<\/p>\n<p>Dentro de los riesgos de Bostron est\u00e1 que solo un grupo pueda alcanzar la posthumanidad, lo cual seria lo natural, dada los desequilibrios insostenibles y las desigualdades existentes, que siguen creciendo y si hoy hablamos de brecha digital, ma\u00f1ana hablaremos de una brecha tecnol\u00f3gica que dar\u00e1 lugar a una tecnocracia que se asuma el papel de una raza superior y tome el control del mundo<\/p>\n<p>Una inteligencia artificial (IA) que por errores en la programaci\u00f3n pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales, no podemos olvidar que los programadores est\u00e1n inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no ser\u00eda extra\u00f1o que la IA respondiera a fines hegem\u00f3nicos y fuera una herramienta en manos de pol\u00edticos cuyo inter\u00e9s se base en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador.<\/p>\n<p>Ya hay algunos que est\u00e1n pagando por que se les congele sus cuerpos al morir; no todos, aunque lo deseen, pueden pagarlo; otros congelan sus cabezas, para cuando la tecnolog\u00eda haya madurado, los revivan y puedan disfrutar de una vida posthumana. De momento es solo un negocio donde ya algunas compa\u00f1\u00edas est\u00e1n recibiendo sus ganancias. Esto seg\u00fan Bostrom podr\u00eda crear una sobrepoblaci\u00f3n, para la que no se estar\u00eda preparado, de hecho ya estamos ante un crecimiento incontrolado de la poblaci\u00f3n.<\/p>\n<p>Una de las mayores preocupaciones de Bostrom creador del transhumanismo, del transhumanismo hablaremos despu\u00e9s es que no se llegue a alcanzar la posthumanidad, de ah\u00ed su preocupaci\u00f3n a que surjan leyes que proh\u00edban ciertas investigaciones o aplicaciones que limiten o frenen el camino hacia una transhumnidad, para \u00e9l, la \u00fanica soluci\u00f3n viable para la humanidad. Tambi\u00e9n le preocupa que existan problemas tecnol\u00f3gicos, que no permitan llevarla a la pr\u00e1ctica y aqu\u00ed surge una de las hip\u00f3tesis m\u00e1s importantes: la acelerada degradaci\u00f3n del planeta, calentamiento global, contaminaci\u00f3n, consumo de recursos no llevar\u00e1 a corto plazo a la muerte del planeta y convirti\u00e9ndolo en un lugar inh\u00f3spito sin dar tiempo a que la tecnolog\u00eda se desarrolle lo suficiente y no se pueda alcanzar la meta de una posthumanidad. De ah\u00ed la tesis de los tecnofuturistas de apostar por la aceleraci\u00f3n de la tecnolog\u00eda a toda costa, con el fin de tener alternativas artificiales que sustituyan la vida actual.<\/p>\n<p>Bostrom, al final de sus hip\u00f3tesis sobre los riesgos reconoce, por fin, que muchas estrategias a largo plazo se deben delegar (al igual que un jefe delega a un subordinado) a las generaciones futuras ya que no hay nada que podamos hacer<\/p>\n<p>Con respecto a la aceleraci\u00f3n, seg\u00fan datos de las Naciones Unidas, tenemos:<\/p>\n<p>\u2022 Un crecimiento muy superior al que se hab\u00eda producido desde el comienzo de la civilizaci\u00f3n hasta 1950.<\/p>\n<p>\u2022 Los 20 pa\u00edses m\u00e1s ricos del mundo han consumido en el \u00faltimo siglo m\u00e1s materia prima y m\u00e1s recursos energ\u00e9ticos no renovables, que toda la humanidad a lo largo de su historia y prehistoria.<\/p>\n<p>\u2022 Desde mediados del siglo XX han nacido m\u00e1s seres humanos que en toda la historia de la humanidad.<\/p>\n<p>Por lo que es casi seguro que cuando se alcance la primera mitad del siglo XXI se haya consumido m\u00e1s recursos del planeta que en toda la historia anterior (incluido la segunda mitad del siglo XX, que a su vez hab\u00eda consumido m\u00e1s recursos que en toda la historia). De mantenerse esta aceleraci\u00f3n, que parece no tener l\u00edmites, debida al ansia de consumismo y al ego\u00edsmo humano. Teniendo en cuento que los recursos del planeta son limitados; el agotamiento de los recursos es solo cuesti\u00f3n de tiempo.<\/p>\n<p>Por lo que seg\u00fan estos datos, sino se hace nada, es muy posible que la aceleraci\u00f3n de la degradaci\u00f3n del planeta le gane la competencia a la aceleraci\u00f3n de las tecnolog\u00edas y su sue\u00f1o de una posthumanidad.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Las amenazas son los efectos que estamos sufriendo de las acciones humanas dado nuestro contexto actual de dominio que ha provocado el crecimiento acelerado de dos par\u00e1metros: la degradaci\u00f3n del planeta y el desarrollo de la tecnolog\u00eda con fines hegem\u00f3nicos. Dentro de las amenazas que enfrenta la humanidad esta las del presente, las que ya [&hellip;]<\/p>\n","protected":false},"author":109,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[7],"tags":[14,64,124,161,179,209,269],"_links":{"self":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts\/46"}],"collection":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/users\/109"}],"replies":[{"embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/comments?post=46"}],"version-history":[{"count":0,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts\/46\/revisions"}],"wp:attachment":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/media?parent=46"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/categories?post=46"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/tags?post=46"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}