{"id":1573,"date":"2016-06-20T14:51:45","date_gmt":"2016-06-20T14:51:45","guid":{"rendered":"https:\/\/cibernetica.wordpress.com\/?p=1573"},"modified":"2016-06-20T14:51:45","modified_gmt":"2016-06-20T14:51:45","slug":"hacia-donde-vamos-refinamiento-1","status":"publish","type":"post","link":"https:\/\/blogs.sld.cu\/cibernetica\/2016\/06\/20\/hacia-donde-vamos-refinamiento-1\/","title":{"rendered":"\u00bfHacia d\u00f3nde vamos? Refinamiento (1)"},"content":{"rendered":"<p><a href=\"https:\/\/cibernetica.wordpress.com\/2016\/06\/20\/hacia-donde-vamos-refinamiento-1\/onu_ia_home\/\" rel=\"attachment wp-att-1574\"><img loading=\"lazy\" class=\"size-medium wp-image-1574 alignleft\" src=\"https:\/\/cibernetica.files.wordpress.com\/2016\/06\/onu_ia_home.jpg?w=300\" alt=\"ONU_IA_home\" width=\"300\" height=\"200\" \/><\/a>Hoy se habla \u00a0de los riesgos \u00a0potenciales de construir una IA, el problema radica en si nos concentramos en los beneficios que ofrece la inteligencia artificial (IA) o si nos preocupamos por los riesgos. Este dilema nos lleva a la necesidad de trazar un mapa del futuro partiendo para ello de las ideas de James Hughes.<\/p>\n<h3><strong>Posiciones ante la IA. Hacia una nueva clasificaci\u00f3n<br \/>\n<\/strong><\/h3>\n<p>1.-Beneficiosa en s\u00ed misma. Siempre ser\u00e1 beneficiosa y se sue\u00f1a con el surgimiento de una singularidad tecnol\u00f3gica. La vamos a denotar como ++IA<\/p>\n<p>2.-Beneficiosa pero depende de ciertos factores. Se denota como +IA<\/p>\n<ul>\n<li>Estar\u00e1 regido por la ley del mercado<\/li>\n<li>Que surja de la colaboraci\u00f3n entre humanos y tecnolog\u00edas donde ambos deben perfeccionarse y que haga m\u00e1s inteligente y sabios a los humanos.<\/li>\n<\/ul>\n<p>3.-Riesgosa pero se puede resolver tomando ciertas medidas. -IA<\/p>\n<ul>\n<li>Se puede construir una IA dentro de una programaci\u00f3n que responda a los intereses humanos.<\/li>\n<li>Se debe construir una IA que este bajo control y no debe pasar de ser una herramienta<\/li>\n<\/ul>\n<p>4.-Riesgosa en si misma. Se deben prohibir las investigaciones: &#8211;IA<\/p>\n<p>Hasta ahora nos hemos referido a las tecnolog\u00edas inteligentes, en especial la IA. \u00bfPero qu\u00e9 sucede con las tecnolog\u00edas de mejoramiento?<\/p>\n<p>Hab\u00edamos visto que las tecnolog\u00edas de mejoramiento tienen que ver el dilema de Potter, si se debe usar o no toda la tecnolog\u00eda en el ser humano, en especial para su mejoramiento (transhumanismo)\u00a0 y como el ser humano se har\u00eda dependiente de las tecnolog\u00edas. Aqu\u00ed tambi\u00e9n surgen cuatro posiciones.<\/p>\n<h3><strong>Posiciones ante el transhumanismo (TH)<\/strong><\/h3>\n<p>1.-Las tecnolog\u00edas de mejoramiento son buenas en s\u00ed: ++TH<\/p>\n<p>2.-Las tecnolog\u00edas de mejoramiento son beneficiosas pero se deben evitar los riesgos: +TH<\/p>\n<ul>\n<li>Dejar que la econom\u00eda de mercado guie su aplicaci\u00f3n en los humanos<\/li>\n<li>Regular el proceso de mejoramiento de forma democr\u00e1tica e inteligentes<\/li>\n<\/ul>\n<p>3.-El TH es riesgos por lo que se deben buscar soluciones ante su inminente surgimiento: -TH<\/p>\n<ul>\n<li>Las tecnolog\u00edas de mejora deben estar bajo control de leyes y regulaciones que la controlen y en muchos casos la proh\u00edba.<\/li>\n<li>Ante el riego de las tecnolog\u00edas de mejora el ser humano debe desarrollar todo su potencial en toda su dimensi\u00f3n (tecno-bio-sico-social)<\/li>\n<\/ul>\n<p>4.-Las tecnolog\u00edas de mejora son un riesgo en s\u00ed y deben ser prohibidas: &#8211;TH<\/p>\n<p>Volviendo a las ideas de James Hughes, en su biopolitica el define cuatro grupos: bioluditas, bioconservadores, transhumanistas y tecnoprogresistas.<\/p>\n<p>Ahora segun todo lo antes dicho tendremos:<\/p>\n<ul>\n<li>Bioluditas \u2013 Riesgosa en si misma<\/li>\n<li>Bioconservadores \u2013 Riegosa por las consecuencias que puede tener: aumento de la injusticia social, la contaminaci\u00f3n , la perdida de espiritualidad, etc.<\/li>\n<li>Transhumanistas \u2013 Beneficiosa siempre que cumpla con la ley del mercado (transhumanismo liberal)<\/li>\n<li>Tecnoprogresistas \u2013 Beneficiosa pero se deben evitar los riesgos (transhumanismo democr\u00e1tico)<\/li>\n<\/ul>\n<p>A lo que yo agregu\u00e9 dos grupos m\u00e1s<\/p>\n<ul>\n<li>Bioprogresista (Bioeticistas+) \u2013 Riesgosa pero se debe tener en cuenta las consecuencias presentes y futuras. En lugar de prohibir las tecnolog\u00edas de mejoramiento como soluci\u00f3n se busca la cooperaci\u00f3n y la convivencia entre todos.<\/li>\n<li>Posthumanistas \u2013 Beneficiosa en si misma<\/li>\n<\/ul>\n<p>Por lo que, al final tendremos las siguientes posiciones.<\/p>\n<h3><strong>Posiciones ante las tecnolog\u00edas en general<\/strong><\/h3>\n<ol>\n<li>Bioluidistas: Las tecnolog\u00edas en general son peligrosas y se deben prohibir<\/li>\n<li>Biconservacionistas: Las tecnolog\u00edas son un riesgo por lo que deben ser controladas<\/li>\n<li>Bioeticistas+ (bioprogresista): Las tecnolog\u00edas son beneficiosas<\/li>\n<li>Posthumanistas: Las tecnolog\u00edas son beneficiosas en s\u00ed mismas<\/li>\n<li>Transhumanistas: Las tecnolog\u00edas son beneficiosas pero se deben ajustar a la ley del mercado<\/li>\n<li>Humanista+(tecnoprogresista): Las tecnolog\u00edas en general son beneficiosas per existen riesgos que hay que tener en cuenta.<\/li>\n<\/ol>\n<p>Anteriormente hab\u00eda utilizado el nombre de bioprogresismo, un poco imitando a Hughes, despu\u00e9s de un largo camino de estar pensando y escribiendo sobre el tema me decid\u00ed por bioeticismo+. Mientras al tecnoprogresismo de Hughes lo agrupe como humanismo+, nombre que tambi\u00e9n ya hab\u00edan utilizado Hughes as\u00ed como otros defensores de un transhumanismo m\u00e1s democr\u00e1tico.<\/p>\n<p>Bioeticismo+ (bioprogresismo): Sigue la idea de Potter de la Bioetica puente, la global y en especial la bio\u00e9tica profunda pero ahora estudiando el impacto de las tecnolog\u00edas emergentes y siguiendo la idea de trazar un puente hacia el futuro. \u00a0Enfoque transdisciplinar que aborda al ser humano en toda su dimensi\u00f3n<\/p>\n<p>El enfoque transdiciplinar lleva a buscarle soluci\u00f3n a cada problema. Ejemplo, para el problema tecnocientifico la soluci\u00f3n est\u00e1 en las superinteligencias colectivas: cerebro global, inteligencia colectiva, lenguaje IML, etc.<\/p>\n<p>Ahora haremos el mismo an\u00e1lisis para la inteligencia artificial, dada la clasificaci\u00f3n anterior<\/p>\n<h3>Posiciones ante la inteligencia artificial<\/h3>\n<ol>\n<li>Bioluidistas: IA riesgosa en s\u00ed misma. Prohibir la IA (&#8211;IA)<\/li>\n<li>Biconservacionistas: IA riesgosa debe ser controlada. Es una herramienta (-IA)<\/li>\n<li>Bioeticistas+: IA beneficiosa (+IA)<\/li>\n<li>Posthumanistas: IA beneficiosa en si (++IA)<\/li>\n<li>Transhumanistas: IA beneficiosa siguiendo la ley del mercado (+IA)<\/li>\n<li>Humanista+: IA riesgosa pero se puede programar alineada a los intereses humanos (-IA)<\/li>\n<\/ol>\n<p>Relaci\u00f3n entre\u00a0 el transhumanismo (TH) y la inteligencia artificial (IA)<\/p>\n<p>La relaci\u00f3n (sinergia) que se est\u00e1 produciendo entre humanos y tecnolog\u00edas ante el comienzo de la era de las tecnolog\u00edas<\/p>\n<h3><strong>Posiciones ante la relacion TH \/ IA<\/strong><\/h3>\n<ol>\n<li>Bioluidistas: &#8211;TH = &#8211;IA, peligrosas en s\u00ed. Se deben prohibir<\/li>\n<li>Biconservacionistas: -TH = -IA, riesgosas pero\u2026\u00a0 Se deben controlar<\/li>\n<li>Bioeticistas+: -TH &lt; +IA, riesgosa, pero\u2026 La IA puede resolver los problemas del TH<\/li>\n<li>Posthumanistas: ++TH = ++IA, beneficiosas en s\u00ed. Aceleraci\u00f3n tecnol\u00f3gica<\/li>\n<li>Transhumanistas: +TH = +IA, beneficiosas pero\u2026 Orientadas por el libre mercado<\/li>\n<li>Humanista+: +TH &gt; &#8211; IA, riesgosa pero\u2026 El TH puede resolver los problemas de la IA<\/li>\n<\/ol>\n<p>(3) Los beneficios de la IA pueden resolver los riesgos del TH<\/p>\n<p>(6) Los beneficios del TH puede darle soluci\u00f3n a los riesgos de la IA<\/p>\n<p>Posiciones que asumen las instituciones que est\u00e1n estudiando el futuro y las que asumen las transnacionales (<a href=\"https:\/\/cibernetica.wordpress.com\/2016\/06\/09\/hacia-donde-vamos-problema-tecnocientifico\/\">ver art\u00edculo anterior<\/a>). \u00bfEst\u00e1n claros los estudios del futuro sobre a qu\u00e9 futuro vamos? \u00bfEn qu\u00e9 posici\u00f3n encajan las instituciones? \u00bfQu\u00e9 futuro nos proponemos?<\/p>\n<p>Los centros dedicados al futuro: FLI, FHI, etc., tambi\u00e9n se hacen eco de una IA riesgosa y dada su posici\u00f3n tecnologista se asume de forma impl\u00edcita el TH como beneficioso. Si estos centros no aceptaran el TH como beneficioso entonces asumir\u00eda una posici\u00f3n bioconservadora y perder\u00eda su car\u00e1cter tecnologista. Y es que todos los centros que estudian el futuro parten de un enfoque del problema tecnocienfico, creen que las tecnolog\u00edas son la soluci\u00f3n en si misma o que son beneficiosas y los riesgos son solo un factor secundario. Y creen que la soluci\u00f3n est\u00e1n en un futuro posthumano. Mientras que para los ecologistas la soluci\u00f3n est\u00e1 en un futuro sostenible.<\/p>\n<p>Los escenarios m\u00e1s probables para el futuro<\/p>\n<p>Los escenarios m\u00e1s probables ordenados de acuerdo a la posibilidad de surgir<\/p>\n<ol>\n<li>Transhumanismo (tecno-liberalismo)<\/li>\n<li>Humanismo+ (tecno social democracia)<\/li>\n<li>Biconservadurismo (eco socialismo)<\/li>\n<li>Bioeticismo+ (trans-utopia)<\/li>\n<li>Postumanismo (tecno-utopia)<\/li>\n<li>Bioludiosmo (eco-utopia)<\/li>\n<\/ol>\n<p>Los 3 primeros escenarios tienen soporte pol\u00edtico (sociedades neoliberal, social democracia y socialismo), los tres \u00faltimos no, son tecno-utop\u00edas<\/p>\n<p>Escenarios trans-utopico. Enfoque transdisciplinar con la participaci\u00f3n de la sociedad civil. Consiste en una utop\u00eda social, ecol\u00f3gica, espiritual y tecnol\u00f3gica.<\/p>\n<p>Los bioconservadores ven la soluci\u00f3n en tomar medidas sociales, pol\u00edticas y t\u00e9cnicas que eviten la destrucci\u00f3n del planeta. El car\u00e1cter tecnologista ve a la tecnolog\u00eda (progreso tecnol\u00f3gico) como soluci\u00f3n a los problemas.<\/p>\n<p>En el pr\u00f3ximo articulo seguiremos con el refinamiento: Debido a que el tiempo y las condiciones no me acompa\u00f1an, los art\u00edculos los voy escribiendo por refinamiento en un estilo r\u00e1pido, a veces desesperado, con muchas ideas sueltas y luego las voy poco a poco ampliando y detallando en sucesivos art\u00edculos.<\/p>\n<p>Imagen: <a href=\"http:\/\/www.sophimania.pe\/tecnologia\/redes-sociales\/expertos-advierten-a-panel-de-la-onu-sobre-los-peligros-de-la-ia\/\">Sophimania<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Hoy se habla \u00a0de los riesgos \u00a0potenciales de construir una IA, el problema radica en si nos concentramos en los beneficios que ofrece la inteligencia artificial (IA) o si nos preocupamos por los riesgos. Este dilema nos lleva a la necesidad de trazar un mapa del futuro partiendo para ello de las ideas de James [&hellip;]<\/p>\n","protected":false},"author":109,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[6,13],"tags":[],"_links":{"self":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts\/1573"}],"collection":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/users\/109"}],"replies":[{"embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/comments?post=1573"}],"version-history":[{"count":0,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts\/1573\/revisions"}],"wp:attachment":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/media?parent=1573"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/categories?post=1573"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/tags?post=1573"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}