{"id":1569,"date":"2016-06-09T16:35:07","date_gmt":"2016-06-09T16:35:07","guid":{"rendered":"https:\/\/cibernetica.wordpress.com\/?p=1569"},"modified":"2016-06-09T16:35:07","modified_gmt":"2016-06-09T16:35:07","slug":"hacia-donde-vamos-problema-tecnocientifico","status":"publish","type":"post","link":"https:\/\/blogs.sld.cu\/cibernetica\/2016\/06\/09\/hacia-donde-vamos-problema-tecnocientifico\/","title":{"rendered":"\u00bfHacia d\u00f3nde vamos? Problema tecnocient\u00edfico"},"content":{"rendered":"<h3>Dilema: El aumento exponencial del conocimiento sin el aumento de la sabidur\u00eda necesaria para manejarlo.<\/h3>\n<div id=\"attachment_947\" style=\"width: 117px\" class=\"wp-caption alignleft\"><a href=\"https:\/\/cibernetica.wordpress.com\/2014\/08\/20\/hacia-una-sostenibilidad-tecnologica\/van_rensselaer_potter\/\" rel=\"attachment wp-att-947\"><img aria-describedby=\"caption-attachment-947\" loading=\"lazy\" class=\"wp-image-947\" src=\"https:\/\/cibernetica.files.wordpress.com\/2014\/08\/van_rensselaer_potter.jpg\" alt=\"van_rensselaer_potter\" width=\"107\" height=\"143\" \/><\/a><p id=\"caption-attachment-947\" class=\"wp-caption-text\">Van R. Potter<\/p><\/div>\n<p>Esto es a lo que el bioeticista Van R Potter llama el dilema del tercer milenio.\u00a0 Hoy son varios los cient\u00edficos que se hacen eco de este dilema, recientemente Steven Hawking dijo lo siguiente: \u201cNuestro futuro es una carrera entre el crecimiento de la tecnolog\u00eda y la sabidur\u00eda que tengamos para manejarla\u201d.<\/p>\n<p>En el art\u00edculo <a href=\"https:\/\/cibernetica.wordpress.com\/2015\/04\/08\/las-cuatro-singularidades-tecnologicas-2\/\">las cuatro singularidades tecnol\u00f3gicas<\/a>, dec\u00edamos: La idea central para que surja una singularidad tecnol\u00f3gica, es el surgimiento de una inteligencia suprahumana. Vinge, utiliza el t\u00e9rmino de m\u00e1quina ultra inteligente y la define como una m\u00e1quina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de \u00e9ste y est\u00e1 convencido de que esa inteligencia superior ser\u00e1 la que impulsar\u00e1 el progreso, el cual ser\u00e1 mucho m\u00e1s r\u00e1pido e incluso superar\u00e1 a la actual evoluci\u00f3n natural y en art\u00edculos anteriores hab\u00edamos clasificado las superinteligencias en artificial, hibrida, colectiva y biol\u00f3gica.<\/p>\n<p><strong>Posiciones ante el surgimiento de una super inteligencia artificial (ver <\/strong><a href=\"https:\/\/cibernetica.wordpress.com\/2015\/02\/11\/como-relacionarnos-con-las-super-inteligencias-artificiales-3\/\">Como relacionarnos con las super inteligencias artificiales\u00a0(3)<\/a><\/p>\n<ol>\n<li>Las m\u00e1quinas como herederas del planeta: Moravec<\/li>\n<li>Reconstrucci\u00f3n de los humanos para que sigan progresando en un entorno artificial: Kurzweil.<\/li>\n<li>Recargar la mente<\/li>\n<\/ol>\n<p>En el punto 1 no hay riesgo, las m\u00e1quinas, tranquilamente nos sustituir\u00e1n, y seg\u00fan Moravec, eso es lo mejor que nos puede pasar.<\/p>\n<p>En el 2 se depende del surgimiento de una super IA y de la creaci\u00f3n de un entorno artificial (vivir en la nube)<\/p>\n<p>El 3 est\u00e1 basado en la met\u00e1fora del computador, se aspira a extraer la mente del cerebro y recargarla en otro soporte.<\/p>\n<p>Teniendo en cuenta las posiciones que se est\u00e1n asumiendo con respecto a las tecnolog\u00edas podemos decir que se est\u00e1 produciendo un enfrentamiento entre los que defienden una inteligencia transhumana y los que defienden una inteligencia humana ya sea natural o ampliada por las tecnolog\u00edas<\/p>\n<p>1) Inteligencia natural \u2014\u2014\u2014\u2014\u2014\u2014\u2014\u2014\u2014\u2014&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212;&#8212; Superinteligencia artificial<\/p>\n<p>2)\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 \u00a0 \u00a0 Inteligencia social \u2014\u2014\u2014\u2014\u2014\u2014\u2014&#8212;&#8212;&#8212;-\u2014\u2014- Superinteligencia hibrida<\/p>\n<p>3)\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0\u00a0 \u00a0 \u00a0 \u00a0 Superinteligencia colectiva \u2014\u2014\u2014\u2014 Superinteligencia transhumana<\/p>\n<h3>Posiciones ante el progreso tecnol\u00f3gico (Ver <a href=\"http:\/\/ieet.org\/index.php\/IEET\/biopolitics\">Biopol\u00edtica<\/a>)<\/h3>\n<p>1.-<strong>Inteligencia natural:<\/strong> Prohibir las tecnolog\u00edas (renuncia). Los riesgos son tan enormes y desconocidos y las instituciones reguladoras no son confiables. Tanto la inteligencia artificial (IA) como el tranhumanismo son un riesgo en s\u00ed. Corrientes: bioludismo, anti tecnolog\u00eda, involuci\u00f3n natural, biocentrismo, ecologismo profundo, humano natural, ectosimbiosis parasitaria.<br \/>\n<strong>Sitios:<\/strong><br \/>\n<a href=\"http:\/\/66.249.90.132\/translate_c?hl=es&amp;sl=en&amp;u=http:\/\/www.thecbc.org\/&amp;prev=\/search%3Fq%3Dthe%2BBuckminster%2BFuller%2BChallenge.%26hl%3Des%26sa%3DG&amp;rurl=translate.google.com&amp;usg=ALkJrhihpUnt0hjCddI9Zy_U5rS6d979kg\">Centro de<\/a> <a href=\"http:\/\/66.249.90.132\/translate_c?hl=es&amp;sl=en&amp;u=http:\/\/www.thecbc.org\/&amp;prev=\/search%3Fq%3Dthe%2BBuckminster%2BFuller%2BChallenge.%26hl%3Des%26sa%3DG&amp;rurl=translate.google.com&amp;usg=ALkJrhihpUnt0hjCddI9Zy_U5rS6d979kg\">Bioethics and Culture<\/a><u><br \/>\n<\/u><a href=\"http:\/\/66.249.90.132\/translate_c?hl=es&amp;sl=en&amp;u=http:\/\/www.cbhd.org\/&amp;prev=\/search%3Fq%3Dthe%2BBuckminster%2BFuller%2BChallenge.%26hl%3Des%26sa%3DG&amp;rurl=translate.google.com&amp;usg=ALkJrhig_hkw2HBZS-mI3yFt4Xd9Y0YHzw\">Center for<\/a> <a href=\"http:\/\/66.249.90.132\/translate_c?hl=es&amp;sl=en&amp;u=http:\/\/www.cbhd.org\/&amp;prev=\/search%3Fq%3Dthe%2BBuckminster%2BFuller%2BChallenge.%26hl%3Des%26sa%3DG&amp;rurl=translate.google.com&amp;usg=ALkJrhig_hkw2HBZS-mI3yFt4Xd9Y0YHzw\">Centro de<\/a> <a href=\"http:\/\/66.249.90.132\/translate_c?hl=es&amp;sl=en&amp;u=http:\/\/www.cbhd.org\/&amp;prev=\/search%3Fq%3Dthe%2BBuckminster%2BFuller%2BChallenge.%26hl%3Des%26sa%3DG&amp;rurl=translate.google.com&amp;usg=ALkJrhig_hkw2HBZS-mI3yFt4Xd9Y0YHzw\">Bioethics and Human Dignity<\/a><u><br \/>\n<\/u><a href=\"http:\/\/66.249.90.132\/translate_c?hl=es&amp;sl=en&amp;u=http:\/\/www.thenewatlantis.com\/&amp;prev=\/search%3Fq%3Dthe%2BBuckminster%2BFuller%2BChallenge.%26hl%3Des%26sa%3DG&amp;rurl=translate.google.com&amp;usg=ALkJrhj7rJLwAvFkII2wC9oo7j4A5W7tWA\">BAD\/New Atlantis<\/a><u><br \/>\n<\/u><a href=\"http:\/\/66.249.90.132\/translate_c?hl=es&amp;sl=en&amp;u=http:\/\/www.personhood.net\/&amp;prev=\/search%3Fq%3Dthe%2BBuckminster%2BFuller%2BChallenge.%26hl%3Des%26sa%3DG&amp;rurl=translate.google.com&amp;usg=ALkJrhjFI_wMtX82lx3NTji8mNgud66p7w\">Personhood.net<\/a><\/p>\n<p><strong>2.-Inteligencia socio-cultural:<\/strong> Control de las tecnolog\u00edas. La inteligencia artificial (IA) como herramienta, es un medio para los humanos. Las tecnolog\u00edas deben ser controladas y en caso de duda deben ser prohibidas (precauci\u00f3n). Tanto la IA como el transhumanismo son un riesgo pero se pueden controlar. Corrientes: Bioconservadores, desarrollo sostenible, evoluci\u00f3n natural socio-cultural, eco-socialismo, humano social. Ectosimbiosis comensal<br \/>\n<strong>Sitios:<\/strong><br \/>\n<a href=\"http:\/\/66.249.90.132\/translate_c?hl=es&amp;sl=en&amp;u=http:\/\/genetics-and-society.org\/&amp;prev=\/search%3Fq%3Dthe%2BBuckminster%2BFuller%2BChallenge.%26hl%3Des%26sa%3DG&amp;rurl=translate.google.com&amp;usg=ALkJrhiOQm1rZIVqzFsO5aaRzGlJG_-SFg\">Centro de<\/a> <a href=\"http:\/\/66.249.90.132\/translate_c?hl=es&amp;sl=en&amp;u=http:\/\/genetics-and-society.org\/&amp;prev=\/search%3Fq%3Dthe%2BBuckminster%2BFuller%2BChallenge.%26hl%3Des%26sa%3DG&amp;rurl=translate.google.com&amp;usg=ALkJrhiOQm1rZIVqzFsO5aaRzGlJG_-SFg\">Genetics and Society<\/a><br \/>\n<a href=\"http:\/\/66.249.90.132\/translate_c?hl=es&amp;sl=en&amp;u=http:\/\/www.gene-watch.org\/&amp;prev=\/search%3Fq%3Dthe%2BBuckminster%2BFuller%2BChallenge.%26hl%3Des%26sa%3DG&amp;rurl=translate.google.com&amp;usg=ALkJrhinJu8m9BG_ghahXINjnkVv8NPLbg\">Council for<\/a> <a href=\"http:\/\/66.249.90.132\/translate_c?hl=es&amp;sl=en&amp;u=http:\/\/www.gene-watch.org\/&amp;prev=\/search%3Fq%3Dthe%2BBuckminster%2BFuller%2BChallenge.%26hl%3Des%26sa%3DG&amp;rurl=translate.google.com&amp;usg=ALkJrhinJu8m9BG_ghahXINjnkVv8NPLbg\">Responsible Genetics<\/a><br \/>\n<a href=\"http:\/\/66.249.90.132\/translate_c?hl=es&amp;sl=en&amp;u=http:\/\/www.etcgroup.org\/&amp;prev=\/search%3Fq%3Dthe%2BBuckminster%2BFuller%2BChallenge.%26hl%3Des%26sa%3DG&amp;rurl=translate.google.com&amp;usg=ALkJrhhJmgCS_7udzQWHKjqtOHIFbsk0qA\">ETC Group<\/a><br \/>\n<a href=\"http:\/\/www.thehumanfuture.org\/\">Institute on Biotechnology and the Human Future<\/a><br \/>\n<a href=\"http:\/\/www.c-pet.org\">Center for Policy on Emerging Technologies<\/a><\/p>\n<p><strong>3.-Superinteligencia colectiva<\/strong>: Manejarse con los conocimientos y con las nuevas tecnolog\u00edas \u00a0para lograr ampliar la inteligencia y la sabidur\u00eda colectiva. La IA como colaborador que\u00a0 se desarrolla junto a los humanos, es un fin en si misma. Se pretende que las tecnolog\u00edas sean asequibles a todos. Se necesitan cambios sociales e individuales que modifican nuestra mentalidad actual. La IA es beneficiosa pero hay que orientarla, el transhumanismo es un riesgo pero necesita de una revisi\u00f3n desde una bio\u00e9tica profunda. Corriente: Superorganismo global, bioprogresismo, bioetica profunda, evoluci\u00f3n natural trascendente, Tecno social colaboraci\u00f3n, humano pleno, superinteligencia colectiva, ectosimbiosis mutual, cerebro global, transdiciplinaridad, pensamiento complejo.<br \/>\n<strong>Sitios:<\/strong><br \/>\n<a href=\"http:\/\/pcp.vub.ac.be\/\">Principia Cybernetica<\/a><br \/>\n<a href=\"https:\/\/sites.google.com\/site\/gbialternative1\/\">The Global Brain Institute<\/a><br \/>\n<a href=\"http:\/\/cci.mit.edu\/\">MIT Center for Collective Intelligence<\/a><br \/>\n<a href=\"https:\/\/pierrelevyblog.com\/\">Pierre Levy&#8217;s Blog<\/a><br \/>\n<a href=\"https:\/\/cibernetica.wordpress.com\/\">Soy un Cibern\u00e9tico<\/a><\/p>\n<p><strong>4.-Superinteligencia artificial<\/strong>: Convertirse en tecnolog\u00eda. La IA supera a los humanos\u00a0 y estos se integran como mentes digitales al entorno artificial, recargar la mente y su posterior ampliaci\u00f3n. Sustituir lo natural por lo artificial. El progreso tecnol\u00f3gico es la \u00fanica soluci\u00f3n (imperativo tecnol\u00f3gico) y debe ser acelerado. Advenimiento de una singularidad tecnol\u00f3gica. Tanto la IA como el transhumanismo son beneficiosos en si mismos. Corrientes: Posthumanos, singularidad tecnol\u00f3gica, evoluci\u00f3n artificial, tecologismo ut\u00f3pico, Futuro posthumano, mente digital, endosimbiosis parasitaria<br \/>\n<strong>Sitios<\/strong><br \/>\n<a href=\"http:\/\/www.kurzweilai.net\/\">Kurzweil Accelerating Intelligence<\/a><br \/>\n<a href=\"http:\/\/lifeboat.com\/ex\/main\">Lifeboat Foundation<\/a><br \/>\n<a href=\"http:\/\/singularityu.org\/\">Singularity University<\/a><\/p>\n<p><strong>5.-Superinteligencia hibrida (Cyborg):<\/strong> Fusionarse con la tecnolog\u00eda. Integrar parte del ser humano con las m\u00e1quinas. Fusi\u00f3n, inicialmente entre el cerebro y las maquinas, entre humanos y tecnolog\u00edas, podemos pensar en una IA local en cada cerebro. La tecnolog\u00eda es incontrolable, cualquier intervenci\u00f3n del gobierno siempre trae consecuencias imprevistas. Los riesgos son manejables sin el gobierno (resignaci\u00f3n). Tanto la IA como el transhumanismo son benefeciosos pero teniendo en cuenta la econom\u00eda de mercado. Corriente: Trasnhumanis liberal, Cyborg, evoluci\u00f3n semi-artificial, superinteligencia hibrida, endosimbiosis mutual, tecno-liberalismo, transhumano<br \/>\n<strong>Sitios:<\/strong><br \/>\n<a href=\"http:\/\/transhumanism.org\/index.php\/wta\/hvcs\/\">World Transhumanist Association<\/a><br \/>\n<a href=\"http:\/\/www.transhumanismo.org\/\">Asociaci\u00f3n Transhumanista Latinoamericana<\/a><br \/>\n<a href=\"http:\/\/www.autodeskresearch.com\/projects\/cyborg\">Proyect Cyborg \/ Autodesk Reseach<\/a><br \/>\n<a href=\"http:\/\/www.kevinwarwick.com\/\">Kevin Warwick<\/a><\/p>\n<p><strong>6.-Superinteligencia transhumana (humano+)<\/strong>: Lograr que las tecnolog\u00edas sean beneficiosas para el ser humano y evitar los posibles riegos. Mejorar al ser humano por medio de las tecnolog\u00edas biol\u00f3gicas (biotecnolog\u00eda) o conexas (nanotecnolog\u00eda, infotecnolog\u00eda y cognotecnolog\u00eda). La tecnolog\u00eda en funci\u00f3n de mejorar el cerebro y la mente humana. La IA como un medio para lograr la superhumanidad. Lograr elementos para una IA biol\u00f3gica que mejore o perfecciones el cerebro (superinteligencia biol\u00f3gica). Los riesgos son manejables con la ayuda de la supervisi\u00f3n democr\u00e1tica y la gesti\u00f3n (regulaci\u00f3n). La IA es un riesgo y se debe desarrollar bajo ciertas regulaciones, el transhumanismo es beneficioso pero hay que evitar los riesgos existenciales. Corrientes: humano mejorado, tecnoprogresismo, superinteligencia biol\u00f3gica, IA alineada con los intereses humanos, evoluci\u00f3n semi-natural, hombre prot\u00e9sico, transhumanismo democr\u00e1tico, tecno social democracia, tecnologias de mejoramiento, endosimbiosis comensal.<br \/>\n<strong>Sitios:<\/strong><br \/>\n<a href=\"https:\/\/www.fhi.ox.ac.uk\/\">Future of Humanity Institute<\/a>\u00a0(FHI)<br \/>\n<a href=\"http:\/\/futureoflife.org\/\">Future of Life Institute<\/a>\u00a0(FLI)<br \/>\n<a href=\"http:\/\/cser.org\/\">Centre for the Study of Exitential Risk\u00a0<\/a>\u00a0(CSER)<br \/>\n<a href=\"http:\/\/www.ieet.org\/\">Institute for Ethics and Emerging Techologies<\/a><\/p>\n<h3 class=\"r\">\u00a0<strong>Caracter\u00edsticas del problema tecnocientifico<\/strong><\/h3>\n<ul>\n<li>Aumento del conocimiento<\/li>\n<li>Explosi\u00f3n de inteligencia (superinteligencias)<\/li>\n<li>Aceleraci\u00f3n tecnol\u00f3gica<\/li>\n<li>Falta de sabidur\u00eda para manejarse con las tecnolog\u00edas que est\u00e1n emergiendo y alcanzan un progreso verdaderamente digno (evoluci\u00f3n trascendente)<\/li>\n<li>Ignorar la simbiosis que se est\u00e1 produciendo entre humanos y tecnolog\u00edas<\/li>\n<li>Desconocimiento del futuro hacia d\u00f3nde vamos: futuro sostenible o futuro posthumano<\/li>\n<\/ul>\n<p>La interpretaci\u00f3n de la relaci\u00f3n humanos-tecnolog\u00edas como una simbiosis permite comprender los problemas que por los que est\u00e1 transitando la humanidad en su evoluci\u00f3n y hacia qu\u00e9 futuro debemos avanzar<\/p>\n<p>Para muchos el surgimiento de una singularidad tecnol\u00f3gica es inevitable. Por otra parte la mayor\u00eda de las instituciones dedicadas al futuro asumen, expl\u00edcita o impl\u00edcitamente, un futuro posthumano, pero les preocupan los riesgos existenciales siendo el m\u00e1s preocupante el de una IA suprahumana. Es necesario un enfoque cibern\u00e9tico para la comprensi\u00f3n del futuro y de las tendencias y los nuevos paradigmas que est\u00e1n surgiendo. Y es que el mundo no se puede simplificar a un modelo reduccionista, se necesita de una comprensi\u00f3n global y de una \u00e9tica global para enfrentar y saber manejarse con los nuevos conocimientos y con el crecimiento acelerado de las tecnolog\u00edas desde una visi\u00f3n transdisciplinar.<\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Dilema: El aumento exponencial del conocimiento sin el aumento de la sabidur\u00eda necesaria para manejarlo. Esto es a lo que el bioeticista Van R Potter llama el dilema del tercer milenio.\u00a0 Hoy son varios los cient\u00edficos que se hacen eco de este dilema, recientemente Steven Hawking dijo lo siguiente: \u201cNuestro futuro es una carrera entre [&hellip;]<\/p>\n","protected":false},"author":109,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[6,13],"tags":[],"_links":{"self":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts\/1569"}],"collection":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/users\/109"}],"replies":[{"embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/comments?post=1569"}],"version-history":[{"count":0,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts\/1569\/revisions"}],"wp:attachment":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/media?parent=1569"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/categories?post=1569"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/tags?post=1569"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}