junio 2016 Archives

0

Dilema: El aumento exponencial del conocimiento sin el aumento de la sabiduría necesaria para manejarlo.

van_rensselaer_potter

Van R. Potter

Esto es a lo que el bioeticista Van R Potter llama el dilema del tercer milenio.  Hoy son varios los científicos que se hacen eco de este dilema, recientemente Steven Hawking dijo lo siguiente: “Nuestro futuro es una carrera entre el crecimiento de la tecnología y la sabiduría que tengamos para manejarla”.

En el artículo las cuatro singularidades tecnológicas, decíamos: La idea central para que surja una singularidad tecnológica, es el surgimiento de una inteligencia suprahumana. Vinge, utiliza el término de máquina ultra inteligente y la define como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de éste y está convencido de que esa inteligencia superior será la que impulsará el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural y en artículos anteriores habíamos clasificado las superinteligencias en artificial, hibrida, colectiva y biológica.

Posiciones ante el surgimiento de una super inteligencia artificial (ver Como relacionarnos con las super inteligencias artificiales (3)

  1. Las máquinas como herederas del planeta: Moravec
  2. Reconstrucción de los humanos para que sigan progresando en un entorno artificial: Kurzweil.
  3. Recargar la mente

En el punto 1 no hay riesgo, las máquinas, tranquilamente nos sustituirán, y según Moravec, eso es lo mejor que nos puede pasar.

En el 2 se depende del surgimiento de una super IA y de la creación de un entorno artificial (vivir en la nube)

El 3 está basado en la metáfora del computador, se aspira a extraer la mente del cerebro y recargarla en otro soporte.

Teniendo en cuenta las posiciones que se están asumiendo con respecto a las tecnologías podemos decir que se está produciendo un enfrentamiento entre los que defienden una inteligencia transhumana y los que defienden una inteligencia humana ya sea natural o ampliada por las tecnologías

1) Inteligencia natural —————————————————— Superinteligencia artificial

2)           Inteligencia social ——————————-——- Superinteligencia hibrida

3)                   Superinteligencia colectiva ———— Superinteligencia transhumana

Posiciones ante el progreso tecnológico (Ver Biopolítica)

1.-Inteligencia natural: Prohibir las tecnologías (renuncia). Los riesgos son tan enormes y desconocidos y las instituciones reguladoras no son confiables. Tanto la inteligencia artificial (IA) como el tranhumanismo son un riesgo en sí. Corrientes: bioludismo, anti tecnología, involución natural, biocentrismo, ecologismo profundo, humano natural, ectosimbiosis parasitaria.
Sitios:
Centro de Bioethics and Culture
Center for Centro de Bioethics and Human Dignity
BAD/New Atlantis
Personhood.net

2.-Inteligencia socio-cultural: Control de las tecnologías. La inteligencia artificial (IA) como herramienta, es un medio para los humanos. Las tecnologías deben ser controladas y en caso de duda deben ser prohibidas (precaución). Tanto la IA como el transhumanismo son un riesgo pero se pueden controlar. Corrientes: Bioconservadores, desarrollo sostenible, evolución natural socio-cultural, eco-socialismo, humano social. Ectosimbiosis comensal
Sitios:
Centro de Genetics and Society
Council for Responsible Genetics
ETC Group
Institute on Biotechnology and the Human Future
Center for Policy on Emerging Technologies

3.-Superinteligencia colectiva: Manejarse con los conocimientos y con las nuevas tecnologías  para lograr ampliar la inteligencia y la sabiduría colectiva. La IA como colaborador que  se desarrolla junto a los humanos, es un fin en si misma. Se pretende que las tecnologías sean asequibles a todos. Se necesitan cambios sociales e individuales que modifican nuestra mentalidad actual. La IA es beneficiosa pero hay que orientarla, el transhumanismo es un riesgo pero necesita de una revisión desde una bioética profunda. Corriente: Superorganismo global, bioprogresismo, bioetica profunda, evolución natural trascendente, Tecno social colaboración, humano pleno, superinteligencia colectiva, ectosimbiosis mutual, cerebro global, transdiciplinaridad, pensamiento complejo.
Sitios:
Principia Cybernetica
The Global Brain Institute
MIT Center for Collective Intelligence
Pierre Levy’s Blog
Soy un Cibernético

4.-Superinteligencia artificial: Convertirse en tecnología. La IA supera a los humanos  y estos se integran como mentes digitales al entorno artificial, recargar la mente y su posterior ampliación. Sustituir lo natural por lo artificial. El progreso tecnológico es la única solución (imperativo tecnológico) y debe ser acelerado. Advenimiento de una singularidad tecnológica. Tanto la IA como el transhumanismo son beneficiosos en si mismos. Corrientes: Posthumanos, singularidad tecnológica, evolución artificial, tecologismo utópico, Futuro posthumano, mente digital, endosimbiosis parasitaria
Sitios
Kurzweil Accelerating Intelligence
Lifeboat Foundation
Singularity University

5.-Superinteligencia hibrida (Cyborg): Fusionarse con la tecnología. Integrar parte del ser humano con las máquinas. Fusión, inicialmente entre el cerebro y las maquinas, entre humanos y tecnologías, podemos pensar en una IA local en cada cerebro. La tecnología es incontrolable, cualquier intervención del gobierno siempre trae consecuencias imprevistas. Los riesgos son manejables sin el gobierno (resignación). Tanto la IA como el transhumanismo son benefeciosos pero teniendo en cuenta la economía de mercado. Corriente: Trasnhumanis liberal, Cyborg, evolución semi-artificial, superinteligencia hibrida, endosimbiosis mutual, tecno-liberalismo, transhumano
Sitios:
World Transhumanist Association
Asociación Transhumanista Latinoamericana
Proyect Cyborg / Autodesk Reseach
Kevin Warwick

6.-Superinteligencia transhumana (humano+): Lograr que las tecnologías sean beneficiosas para el ser humano y evitar los posibles riegos. Mejorar al ser humano por medio de las tecnologías biológicas (biotecnología) o conexas (nanotecnología, infotecnología y cognotecnología). La tecnología en función de mejorar el cerebro y la mente humana. La IA como un medio para lograr la superhumanidad. Lograr elementos para una IA biológica que mejore o perfecciones el cerebro (superinteligencia biológica). Los riesgos son manejables con la ayuda de la supervisión democrática y la gestión (regulación). La IA es un riesgo y se debe desarrollar bajo ciertas regulaciones, el transhumanismo es beneficioso pero hay que evitar los riesgos existenciales. Corrientes: humano mejorado, tecnoprogresismo, superinteligencia biológica, IA alineada con los intereses humanos, evolución semi-natural, hombre protésico, transhumanismo democrático, tecno social democracia, tecnologias de mejoramiento, endosimbiosis comensal.
Sitios:
Future of Humanity Institute (FHI)
Future of Life Institute (FLI)
Centre for the Study of Exitential Risk  (CSER)
Institute for Ethics and Emerging Techologies

 Características del problema tecnocientifico

  • Aumento del conocimiento
  • Explosión de inteligencia (superinteligencias)
  • Aceleración tecnológica
  • Falta de sabiduría para manejarse con las tecnologías que están emergiendo y alcanzan un progreso verdaderamente digno (evolución trascendente)
  • Ignorar la simbiosis que se está produciendo entre humanos y tecnologías
  • Desconocimiento del futuro hacia dónde vamos: futuro sostenible o futuro posthumano

La interpretación de la relación humanos-tecnologías como una simbiosis permite comprender los problemas que por los que está transitando la humanidad en su evolución y hacia qué futuro debemos avanzar

Para muchos el surgimiento de una singularidad tecnológica es inevitable. Por otra parte la mayoría de las instituciones dedicadas al futuro asumen, explícita o implícitamente, un futuro posthumano, pero les preocupan los riesgos existenciales siendo el más preocupante el de una IA suprahumana. Es necesario un enfoque cibernético para la comprensión del futuro y de las tendencias y los nuevos paradigmas que están surgiendo. Y es que el mundo no se puede simplificar a un modelo reduccionista, se necesita de una comprensión global y de una ética global para enfrentar y saber manejarse con los nuevos conocimientos y con el crecimiento acelerado de las tecnologías desde una visión transdisciplinar.

 

0

ONU_IA_homeHoy se habla  de los riesgos  potenciales de construir una IA, el problema radica en si nos concentramos en los beneficios que ofrece la inteligencia artificial (IA) o si nos preocupamos por los riesgos. Este dilema nos lleva a la necesidad de trazar un mapa del futuro partiendo para ello de las ideas de James Hughes.

Posiciones ante la IA. Hacia una nueva clasificación

1.-Beneficiosa en sí misma. Siempre será beneficiosa y se sueña con el surgimiento de una singularidad tecnológica. La vamos a denotar como ++IA

2.-Beneficiosa pero depende de ciertos factores. Se denota como +IA

  • Estará regido por la ley del mercado
  • Que surja de la colaboración entre humanos y tecnologías donde ambos deben perfeccionarse y que haga más inteligente y sabios a los humanos.

3.-Riesgosa pero se puede resolver tomando ciertas medidas. -IA

  • Se puede construir una IA dentro de una programación que responda a los intereses humanos.
  • Se debe construir una IA que este bajo control y no debe pasar de ser una herramienta

4.-Riesgosa en si misma. Se deben prohibir las investigaciones: –IA

Hasta ahora nos hemos referido a las tecnologías inteligentes, en especial la IA. ¿Pero qué sucede con las tecnologías de mejoramiento?

Habíamos visto que las tecnologías de mejoramiento tienen que ver el dilema de Potter, si se debe usar o no toda la tecnología en el ser humano, en especial para su mejoramiento (transhumanismo)  y como el ser humano se haría dependiente de las tecnologías. Aquí también surgen cuatro posiciones.

Posiciones ante el transhumanismo (TH)

1.-Las tecnologías de mejoramiento son buenas en sí: ++TH

2.-Las tecnologías de mejoramiento son beneficiosas pero se deben evitar los riesgos: +TH

  • Dejar que la economía de mercado guie su aplicación en los humanos
  • Regular el proceso de mejoramiento de forma democrática e inteligentes

3.-El TH es riesgos por lo que se deben buscar soluciones ante su inminente surgimiento: -TH

  • Las tecnologías de mejora deben estar bajo control de leyes y regulaciones que la controlen y en muchos casos la prohíba.
  • Ante el riego de las tecnologías de mejora el ser humano debe desarrollar todo su potencial en toda su dimensión (tecno-bio-sico-social)

4.-Las tecnologías de mejora son un riesgo en sí y deben ser prohibidas: –TH

Volviendo a las ideas de James Hughes, en su biopolitica el define cuatro grupos: bioluditas, bioconservadores, transhumanistas y tecnoprogresistas.

Ahora segun todo lo antes dicho tendremos:

  • Bioluditas – Riesgosa en si misma
  • Bioconservadores – Riegosa por las consecuencias que puede tener: aumento de la injusticia social, la contaminación , la perdida de espiritualidad, etc.
  • Transhumanistas – Beneficiosa siempre que cumpla con la ley del mercado (transhumanismo liberal)
  • Tecnoprogresistas – Beneficiosa pero se deben evitar los riesgos (transhumanismo democrático)

A lo que yo agregué dos grupos más

  • Bioprogresista (Bioeticistas+) – Riesgosa pero se debe tener en cuenta las consecuencias presentes y futuras. En lugar de prohibir las tecnologías de mejoramiento como solución se busca la cooperación y la convivencia entre todos.
  • Posthumanistas – Beneficiosa en si misma

Por lo que, al final tendremos las siguientes posiciones.

Posiciones ante las tecnologías en general

  1. Bioluidistas: Las tecnologías en general son peligrosas y se deben prohibir
  2. Biconservacionistas: Las tecnologías son un riesgo por lo que deben ser controladas
  3. Bioeticistas+ (bioprogresista): Las tecnologías son beneficiosas
  4. Posthumanistas: Las tecnologías son beneficiosas en sí mismas
  5. Transhumanistas: Las tecnologías son beneficiosas pero se deben ajustar a la ley del mercado
  6. Humanista+(tecnoprogresista): Las tecnologías en general son beneficiosas per existen riesgos que hay que tener en cuenta.

Anteriormente había utilizado el nombre de bioprogresismo, un poco imitando a Hughes, después de un largo camino de estar pensando y escribiendo sobre el tema me decidí por bioeticismo+. Mientras al tecnoprogresismo de Hughes lo agrupe como humanismo+, nombre que también ya habían utilizado Hughes así como otros defensores de un transhumanismo más democrático.

Bioeticismo+ (bioprogresismo): Sigue la idea de Potter de la Bioetica puente, la global y en especial la bioética profunda pero ahora estudiando el impacto de las tecnologías emergentes y siguiendo la idea de trazar un puente hacia el futuro.  Enfoque transdisciplinar que aborda al ser humano en toda su dimensión

El enfoque transdiciplinar lleva a buscarle solución a cada problema. Ejemplo, para el problema tecnocientifico la solución está en las superinteligencias colectivas: cerebro global, inteligencia colectiva, lenguaje IML, etc.

Ahora haremos el mismo análisis para la inteligencia artificial, dada la clasificación anterior

Posiciones ante la inteligencia artificial

  1. Bioluidistas: IA riesgosa en sí misma. Prohibir la IA (–IA)
  2. Biconservacionistas: IA riesgosa debe ser controlada. Es una herramienta (-IA)
  3. Bioeticistas+: IA beneficiosa (+IA)
  4. Posthumanistas: IA beneficiosa en si (++IA)
  5. Transhumanistas: IA beneficiosa siguiendo la ley del mercado (+IA)
  6. Humanista+: IA riesgosa pero se puede programar alineada a los intereses humanos (-IA)

Relación entre  el transhumanismo (TH) y la inteligencia artificial (IA)

La relación (sinergia) que se está produciendo entre humanos y tecnologías ante el comienzo de la era de las tecnologías

Posiciones ante la relacion TH / IA

  1. Bioluidistas: –TH = –IA, peligrosas en sí. Se deben prohibir
  2. Biconservacionistas: -TH = -IA, riesgosas pero…  Se deben controlar
  3. Bioeticistas+: -TH < +IA, riesgosa, pero… La IA puede resolver los problemas del TH
  4. Posthumanistas: ++TH = ++IA, beneficiosas en sí. Aceleración tecnológica
  5. Transhumanistas: +TH = +IA, beneficiosas pero… Orientadas por el libre mercado
  6. Humanista+: +TH > – IA, riesgosa pero… El TH puede resolver los problemas de la IA

(3) Los beneficios de la IA pueden resolver los riesgos del TH

(6) Los beneficios del TH puede darle solución a los riesgos de la IA

Posiciones que asumen las instituciones que están estudiando el futuro y las que asumen las transnacionales (ver artículo anterior). ¿Están claros los estudios del futuro sobre a qué futuro vamos? ¿En qué posición encajan las instituciones? ¿Qué futuro nos proponemos?

Los centros dedicados al futuro: FLI, FHI, etc., también se hacen eco de una IA riesgosa y dada su posición tecnologista se asume de forma implícita el TH como beneficioso. Si estos centros no aceptaran el TH como beneficioso entonces asumiría una posición bioconservadora y perdería su carácter tecnologista. Y es que todos los centros que estudian el futuro parten de un enfoque del problema tecnocienfico, creen que las tecnologías son la solución en si misma o que son beneficiosas y los riesgos son solo un factor secundario. Y creen que la solución están en un futuro posthumano. Mientras que para los ecologistas la solución está en un futuro sostenible.

Los escenarios más probables para el futuro

Los escenarios más probables ordenados de acuerdo a la posibilidad de surgir

  1. Transhumanismo (tecno-liberalismo)
  2. Humanismo+ (tecno social democracia)
  3. Biconservadurismo (eco socialismo)
  4. Bioeticismo+ (trans-utopia)
  5. Postumanismo (tecno-utopia)
  6. Bioludiosmo (eco-utopia)

Los 3 primeros escenarios tienen soporte político (sociedades neoliberal, social democracia y socialismo), los tres últimos no, son tecno-utopías

Escenarios trans-utopico. Enfoque transdisciplinar con la participación de la sociedad civil. Consiste en una utopía social, ecológica, espiritual y tecnológica.

Los bioconservadores ven la solución en tomar medidas sociales, políticas y técnicas que eviten la destrucción del planeta. El carácter tecnologista ve a la tecnología (progreso tecnológico) como solución a los problemas.

En el próximo articulo seguiremos con el refinamiento: Debido a que el tiempo y las condiciones no me acompañan, los artículos los voy escribiendo por refinamiento en un estilo rápido, a veces desesperado, con muchas ideas sueltas y luego las voy poco a poco ampliando y detallando en sucesivos artículos.

Imagen: Sophimania