septiembre 2015 Archives

1

relacion-humanosNos acercamos a una singularidad tecnológica donde las tecnologías se convertirán en una superestructura y participarán de las decisiones del planeta como una inteligencia más, independientemente de si las personas se conectan físicamente a la tecnología o no (Wikipedia), por supuesto,  que esto no tiene porque suceder. Están los que piensan que la solución es ir cuanto antes a una singularidad tecnológica y los que piensan todo lo contrario y proponen la prohibición de la mayoría de las tecnologías emergentes, también, están los que creen que la singularidad tecnológica no pasa de ser una tecno-utopía y nunca sucederá.

La idea central para que surja una singularidad tecnológica es el surgimiento de una inteligencia suprahumana. Vinge, utiliza el término de máquina ultra inteligente y la define como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de éste y está convencido de que esa inteligencia superior será la que impulsará el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural. Destaco esto último, que superara la evolución natural, por lo que estamos asumiendo que el futuro (después de la singularidad) surgirá una evolución superior a la actual.

Sabemos, que en la actualidad, la humanidad no se rige totalmente por la evolución natural sino por una evolución socio-cultural, por suerte ya no se cumple la ley de la supervivencia al pie de la letra como en época del hombre de las cavernas y parece como si la ley del mercado hubiese sustituido a la ley de la selva, y la lucha pasó de los territorios a los mercados. Tampoco se utilizan los mismos métodos, las agresiones militares se han ido transformando en agresiones económicas (sin abandonar las acciones militares). En fin, la lucha por el poder, con otros métodos, sigue siendo la misma.

Volviendo al tema, estamos hablando de una superinteligencia capaz de superar a la inteligencia humana en todos los aspectos, yo no estaría tan seguro de que podría superar a los humanos en todos los aspectos, y que esta inteligencia artificial sería a su vez capaz de autoprogramarse y desarrollar programas cada vez más inteligentes y surgiría así una explosión de inteligencia. Esta es la idea de una singularidad tecnológica basada en el surgimiento de una superinteligencia artifical.

No olviden que los defensores de una singularidad parten de la idea de que el cerebro humano no tiene ningún cambio significativo durante milenios (a diferencia de las máquinas que se asume que pueden autoconstruirse en versiones cada vez más potentes).

Para el logro de una inteligencia superhumana, existen dos grandes vías

El de una inteligencia artificial que se hace cada vez más inteligentes, como ya mencionamos

El de la amplificación de la inteligencia humana. Existen tres formas de ampliar la inteligencia humana y crear una superinteligencia (inteligencia superior a la de los humanos)
• Superinteligencia hibrida, producto de la fusión entre humanos y tecnologías
• Superinteligencia biológica, modificación por ingeniería genética del cerebro
• Superinteligencia colectiva, producto de la colaboración entre humanos y tecnologías

Super inteligencia artificial: Se acepta el concepto de una inteligencia artificial (IA) que supera a los humanos, es condición necesaria. Estamos hablando de una IA que se desarrolla a sí misma de forma independiente a los humanos, como la define Moravec, y según él, las máquinas inevitablemente desplazarán a los humanos (endosimbiosis parasitaria, ver Relación simbiótica entre humanos y tecnologías)

Superinteligencia hibrida: Aunque no es obligado, sin dudas los humanos necesitarán de una IA para fusionarse con ella, no se puede hablar de un ciborg, si la máquinas como tal, no son capaces de mejorase a sí mismas (endosimbiosis mutual).

Superinteligencia biológica. Este es el único caso que no necesita del surgimiento de una IA para que sea capaz de lograr una superinteligencia (endosimbiosis comensal)

Superinteligencia colectiva. También es necesario el surgimiento de una superinteligencia donde las IAs se hacen cada vez más inteligentes pero en cooperación con los humanos y ambos se perfeccionan por medio de un aprendizaje cada vez más acelerado y perfeccionado (ectosimbiosis mutual)

Superinteligencia colectiva

Como defensor de una superinteligencia colectiva, he estado pensando sobre algunos conceptos que es necesario aclarar.

El aprendizaje de la máquina en el mundo real (que no es lo mismo que en un laboratorio), hasta hoy, no permite que se puedan programar todos los conocimientos (ir construyendo manualmente una base de conocimientos sobre el mundo real) la experiencia ha llevado a que la máquina debe ser capaz de aprender por sí misma.

Lo cual nos lleva a que la máquina pueda construir programas cada vez más inteligentes a la vez que va construyéndose a sí misma. Aquí hay un problema, se supone que en estos programas la máquina le transfiera su experiencia a la nueva máquina, por tanto el acto de autoprogramarse es una acción que requiere de un aprendizaje que se va a trasmitir por la elaboración de códigos de programas que serán incluidos en la nueva máquina (al igual que los humanos requieren de un aprendizaje que debe ser asimilado)

Por tanto, cuando se habla de máquinas más inteligentes se refieren a una máquina que construye otra más potente: más capacidad de memoria, más velocidad de cálculo y se ignora la necesidad de un aprendizaje y de una experiencia adquirida en la práctica.
Entonces, la máquina al igual que los humanos estará sometida a un proceso de aprendizaje, de una experiencia y de una especialización en ciertas actividades. O sea, estamos hablando de acelerar el aprendizaje.

Por eso en lugar de una explosión de inteligencia que se refiere a máquinas que construyen máquinas cada vez más potente, prefiero hablar de una explosión de aprendizaje donde las máquinas tendrán que ser capaces de aprender y a su vez de construir máquinas capaces de aprender más y mejor. Y en este caso, están tanto los humanos como las máquinas, ambos tienen que aprender a aprender.

Siguiendo con el aprendizaje, las máquinas tendrán que aprender del mundo real, de los textos, de la experiencia humana, de las instituciones educativas humanas. Entonces, ¿como se harán más inteligentes que los humanos? Su potente hardware necesitará de una fuente de conocimientos que los humanos no podrán darle (dado sus lentos cerebros) y podría suceder que vieran a los humanos como un obstáculo para su crecimiento. ¿Qué pasaría si dotáramos a un tigre de una superinteligencia, primero se convertiría en el depredador más eficiente que jamás haya existido y después consideraría a la raza humana un peligro y, sin dudas, la destruiría.

Por suerte existe una solución, las máquinas y los humanos deben aprender juntos, ambos deben hacerse cada vez más inteligentes (y sabios) e ir acelerando el aprendizaje y con ellos las fuentes de conocimientos, las instituciones educativas, los medios de aprendizaje, en general se debe transformar la cultura actual exclusivamente humana por una producto de la colaboración entre humanos y máquinas, estamos hablando de una superinteligencia colectiva.

De una parte tendremos máquinas mejores dotadas que se irán construyendo y, de la otra, niños que irán naciendo también mejores dotados (dentro de una ectosimbiosis mutual como base de la evolución) y que, ambos, estarán sometidos a una educación cada vez más avanzada (aceleración del aprendizaje).