{"id":1245,"date":"2015-09-28T20:43:33","date_gmt":"2015-09-28T20:43:33","guid":{"rendered":"http:\/\/blogs.sld.cu\/cibernetica\/?p=1245"},"modified":"2015-09-28T20:43:33","modified_gmt":"2015-09-28T20:43:33","slug":"las-cuatro-singularidades-tecnologicas-2","status":"publish","type":"post","link":"https:\/\/blogs.sld.cu\/cibernetica\/2015\/09\/28\/las-cuatro-singularidades-tecnologicas-2\/","title":{"rendered":"Las cuatro singularidades tecnol\u00f3gicas (2)"},"content":{"rendered":"<div class=\"entry-content\">\n<p><a href=\"https:\/\/cibernetica.files.wordpress.com\/2015\/04\/relacion-humanos.jpg\"><img loading=\"lazy\" class=\" size-medium wp-image-1182 alignleft\" src=\"https:\/\/cibernetica.files.wordpress.com\/2015\/04\/relacion-humanos.jpg?w=300&amp;h=225\" alt=\"relacion-humanos\" width=\"300\" height=\"225\" \/><\/a>Nos acercamos a una singularidad tecnol\u00f3gica donde las tecnolog\u00edas se convertir\u00e1n en una superestructura y participar\u00e1n de las decisiones del planeta como una inteligencia m\u00e1s, independientemente de si las personas se conectan f\u00edsicamente a la tecnolog\u00eda o no (<a title=\"singularidd tecnologica Wikipedia\" href=\"http:\/\/es.wikipedia.org\/wiki\/Singularidad_tecnol%C3%B3gica\">Wikipedia<\/a>), por supuesto,\u00a0 que esto no tiene porque suceder. Est\u00e1n los que piensan que la soluci\u00f3n es ir cuanto antes a una singularidad tecnol\u00f3gica y los que piensan todo lo contrario y proponen la prohibici\u00f3n de la mayor\u00eda de las tecnolog\u00edas emergentes, tambi\u00e9n, est\u00e1n los que creen que la singularidad tecnol\u00f3gica no pasa de ser una tecno-utop\u00eda y nunca suceder\u00e1.<\/p>\n<p>La idea central para que surja una singularidad tecnol\u00f3gica es el surgimiento de una inteligencia suprahumana. Vinge, utiliza el t\u00e9rmino de m\u00e1quina ultra inteligente y la define como una m\u00e1quina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de \u00e9ste y est\u00e1 convencido de que esa inteligencia superior ser\u00e1 la que impulsar\u00e1 el progreso, el cual ser\u00e1 mucho m\u00e1s r\u00e1pido e incluso superar\u00e1 a la actual <strong>evoluci\u00f3n natural.<\/strong> Destaco esto \u00faltimo, que superara la evoluci\u00f3n natural, por lo que estamos asumiendo que el futuro (despu\u00e9s de la singularidad) surgir\u00e1 una evoluci\u00f3n superior a la actual.<\/p>\n<p>Sabemos, que en la actualidad, la humanidad no se rige totalmente por la evoluci\u00f3n natural sino por una evoluci\u00f3n socio-cultural, por suerte ya no se cumple la ley de la supervivencia al pie de la letra como en \u00e9poca del hombre de las cavernas y parece como si la ley del mercado hubiese sustituido a la ley de la selva, y la lucha pas\u00f3 de los territorios a los mercados. Tampoco se utilizan los mismos m\u00e9todos, las agresiones militares se han ido transformando en agresiones econ\u00f3micas (sin abandonar las acciones militares). En fin, la lucha por el poder, con otros m\u00e9todos, sigue siendo la misma.<\/p>\n<p>Volviendo al tema, estamos hablando de una superinteligencia capaz de superar a la inteligencia humana en todos los aspectos, yo no estar\u00eda tan seguro de que podr\u00eda superar a los humanos en todos los aspectos, y que esta inteligencia artificial ser\u00eda a su vez capaz de autoprogramarse y desarrollar programas cada vez m\u00e1s inteligentes y surgir\u00eda as\u00ed una explosi\u00f3n de inteligencia. Esta es la idea de una singularidad tecnol\u00f3gica basada en el surgimiento de una superinteligencia artifical.<\/p>\n<p>No olviden que los defensores de una singularidad parten de la idea de que el cerebro humano no tiene ning\u00fan cambio significativo durante milenios (a diferencia de las m\u00e1quinas que se asume que pueden autoconstruirse en versiones cada vez m\u00e1s potentes).<\/p>\n<p>Para el logro de una inteligencia superhumana, existen dos grandes v\u00edas<\/p>\n<p>El de una inteligencia artificial que se hace cada vez m\u00e1s inteligentes, como ya mencionamos<\/p>\n<p>El de la amplificaci\u00f3n de la inteligencia humana. Existen tres formas de ampliar la inteligencia humana y crear una superinteligencia (inteligencia superior a la de los humanos)<br \/>\n\u2022 Superinteligencia hibrida, producto de la fusi\u00f3n entre humanos y tecnolog\u00edas<br \/>\n\u2022 Superinteligencia biol\u00f3gica, modificaci\u00f3n por ingenier\u00eda gen\u00e9tica del cerebro<br \/>\n\u2022 Superinteligencia colectiva, producto de la colaboraci\u00f3n entre humanos y tecnolog\u00edas<\/p>\n<p>Super inteligencia artificial: Se acepta el concepto de una inteligencia artificial (IA) que supera a los humanos, es condici\u00f3n necesaria. Estamos hablando de una IA que se desarrolla a s\u00ed misma de forma independiente a los humanos, como la define Moravec, y seg\u00fan \u00e9l, las m\u00e1quinas inevitablemente desplazar\u00e1n a los humanos (endosimbiosis parasitaria, ver <a title=\"Relacion simbiotica\" href=\"https:\/\/cibernetica.wordpress.com\/2015\/03\/12\/relacion-simbiotica-entre-humanos-y-tecnologias-2\/\">Relaci\u00f3n simbi\u00f3tica entre humanos y tecnolog\u00edas<\/a>)<\/p>\n<p>Superinteligencia hibrida: Aunque no es obligado, sin dudas los humanos necesitar\u00e1n de una IA para fusionarse con ella, no se puede hablar de un ciborg, si la m\u00e1quinas como tal, no son capaces de mejorase a s\u00ed mismas (endosimbiosis mutual).<\/p>\n<p>Superinteligencia biol\u00f3gica. Este es el \u00fanico caso que no necesita del surgimiento de una IA para que sea capaz de lograr una superinteligencia (endosimbiosis comensal)<\/p>\n<p>Superinteligencia colectiva. Tambi\u00e9n es necesario el surgimiento de una superinteligencia donde las IAs se hacen cada vez m\u00e1s inteligentes pero en cooperaci\u00f3n con los humanos y ambos se perfeccionan por medio de un aprendizaje cada vez m\u00e1s acelerado y perfeccionado (ectosimbiosis mutual)<\/p>\n<h3>Superinteligencia colectiva<\/h3>\n<p>Como defensor de una superinteligencia colectiva, he estado pensando sobre algunos conceptos que es necesario aclarar.<\/p>\n<p>El aprendizaje de la m\u00e1quina en el mundo real (que no es lo mismo que en un laboratorio), hasta hoy, no permite que se puedan programar todos los conocimientos (ir construyendo manualmente una base de conocimientos sobre el mundo real) la experiencia ha llevado a que la m\u00e1quina debe ser capaz de aprender por s\u00ed misma.<\/p>\n<p>Lo cual nos lleva a que la m\u00e1quina pueda construir programas cada vez m\u00e1s inteligentes a la vez que va construy\u00e9ndose a s\u00ed misma. Aqu\u00ed hay un problema, se supone que en estos programas la m\u00e1quina le transfiera su experiencia a la nueva m\u00e1quina, por tanto el acto de autoprogramarse es una acci\u00f3n que requiere de un aprendizaje que se va a trasmitir por la elaboraci\u00f3n de c\u00f3digos de programas que ser\u00e1n incluidos en la nueva m\u00e1quina (al igual que los humanos requieren de un aprendizaje que debe ser asimilado)<\/p>\n<p>Por tanto, cuando se habla de m\u00e1quinas m\u00e1s inteligentes se refieren a una m\u00e1quina que construye otra m\u00e1s potente: m\u00e1s capacidad de memoria, m\u00e1s velocidad de c\u00e1lculo y se ignora la necesidad de un aprendizaje y de una experiencia adquirida en la pr\u00e1ctica.<br \/>\nEntonces, la m\u00e1quina al igual que los humanos estar\u00e1 sometida a un proceso de aprendizaje, de una experiencia y de una especializaci\u00f3n en ciertas actividades. O sea, estamos hablando de acelerar el aprendizaje.<\/p>\n<p>Por eso en lugar de una explosi\u00f3n de inteligencia que se refiere a m\u00e1quinas que construyen m\u00e1quinas cada vez m\u00e1s potente, prefiero hablar de una explosi\u00f3n de aprendizaje donde las m\u00e1quinas tendr\u00e1n que ser capaces de aprender y a su vez de construir m\u00e1quinas capaces de aprender m\u00e1s y mejor. Y en este caso, est\u00e1n tanto los humanos como las m\u00e1quinas, ambos tienen que aprender a aprender.<\/p>\n<p>Siguiendo con el aprendizaje, las m\u00e1quinas tendr\u00e1n que aprender del mundo real, de los textos, de la experiencia humana, de las instituciones educativas humanas. Entonces, \u00bfcomo se har\u00e1n m\u00e1s inteligentes que los humanos? Su potente hardware necesitar\u00e1 de una fuente de conocimientos que los humanos no podr\u00e1n darle (dado sus lentos cerebros) y podr\u00eda suceder que vieran a los humanos como un obst\u00e1culo para su crecimiento. \u00bfQu\u00e9 pasar\u00eda si dot\u00e1ramos a un tigre de una superinteligencia, primero se convertir\u00eda en el depredador m\u00e1s eficiente que jam\u00e1s haya existido y despu\u00e9s considerar\u00eda a la raza humana un peligro y, sin dudas, la destruir\u00eda.<\/p>\n<p>Por suerte existe una soluci\u00f3n, las m\u00e1quinas y los humanos deben aprender juntos, ambos deben hacerse cada vez m\u00e1s inteligentes (y sabios) e ir acelerando el aprendizaje y con ellos las fuentes de conocimientos, las instituciones educativas, los medios de aprendizaje, en general se debe transformar la cultura actual exclusivamente humana por una producto de la colaboraci\u00f3n entre humanos y m\u00e1quinas, estamos hablando de una superinteligencia colectiva.<\/p>\n<p>De una parte tendremos m\u00e1quinas mejores dotadas que se ir\u00e1n construyendo y, de la otra, ni\u00f1os que ir\u00e1n naciendo tambi\u00e9n mejores dotados (dentro de una ectosimbiosis mutual como base de la evoluci\u00f3n) y que, ambos, estar\u00e1n sometidos a una educaci\u00f3n cada vez m\u00e1s avanzada (aceleraci\u00f3n del aprendizaje).<\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Nos acercamos a una singularidad tecnol\u00f3gica donde las tecnolog\u00edas se convertir\u00e1n en una superestructura y participar\u00e1n de las decisiones del planeta como una inteligencia m\u00e1s, independientemente de si las personas se conectan f\u00edsicamente a la tecnolog\u00eda o no (Wikipedia), por supuesto,\u00a0 que esto no tiene porque suceder. Est\u00e1n los que piensan que la soluci\u00f3n es [&hellip;]<\/p>\n","protected":false},"author":109,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[7],"tags":[],"_links":{"self":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts\/1245"}],"collection":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/users\/109"}],"replies":[{"embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/comments?post=1245"}],"version-history":[{"count":1,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts\/1245\/revisions"}],"predecessor-version":[{"id":1246,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/posts\/1245\/revisions\/1246"}],"wp:attachment":[{"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/media?parent=1245"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/categories?post=1245"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blogs.sld.cu\/cibernetica\/wp-json\/wp\/v2\/tags?post=1245"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}