Es posible relacionarnos con las nuevas inteligencias no humanas desde la visión reduccionista actual

0

Hoy el temor se centra en una inteligencia artificial capaz de superar a los humanos y los peligros que esto podría conllevar, no obstante los riesgos, cada vez se propaga más en los jóvenes  la idea de una IA avanzada y parece como si no existieran más alternativas. El problema radica en quela IA se está construyendo desde un pensamiento positivista-cognitivista-reduccionista-mecanicista, lo cual lleva a la construcción de una IA ajena a los verdaderos interés humanos, por eso no es de extrañar que Stephen Hawking se pregunte. ¿Si estamos tomando la inteligencia artificial suficientemente en serio?

 En el articulo “Los riesgos existenciales de una singularidad tecnológica (3)”

Decía que mi preocupación no es que la IA sea más inteligente, más amigables, ni más robusta sino que los humanos sean capaces de ampliar su inteligencia y su sabiduría junto a la IA, y lo que sucede, en realidad, es que estamos proyectando nuestra preocupación por nosotros mismos sobre la IA, y tememos que esa superinteligencia pueda hacer cosas peores que nosotros.

Considero que la justificación a los diferentes sistemas lo da la sinergia que se está produciendo entre humanos y tecnologías. Estamos hablando de una relación simbiótica y es que, por primera vez en la historia de la humanidad; podemos decidir, ya no solo que tipo de religión, de moral, de sociedad y de educación queremos sino también, qué tipo de evolución queremos alcanzar y a qué futuro queremos llegar.

Como se ve el tema es complejo y está cargado de interpretaciones, temores, expectativas e intenciones que nos desvían de un enfoque imparcial del problema, trataremos de analizar de forma, lo mas imparcial posible (teniendo en cuenta que también somos seres humanos y tenemos expectativas e intenciones) para ello nos apoyaremos del análisis realizado por Give Well “Potential risks from advanced artificial intelligence”, Ya que indaga en el problema de una forma bastante imparcial.

La pregunta es ¿Podemos dirigir la simbiosis? El mismo Nick Bostrom plantea que las tecnologías son juguetes muy peligrosos en manos de niños traviesos (los humanos). Hay que trabajar en ampliación de la inteligencia y la sabiduría humana (IA altruista), que se vaya construyendo por medio de la colaboración con los humanos donde se vaya produciendo una sinergia mutual entre ambos donde prime el progreso humano en lugar del progreso tecnológico como en los casos anteriores.

Esto lleva a profundos cambios de mentalidad y en una nueva educación que prioriza la necesidad de aprender a manejarse con las tecnologías que están emergiendo y la sabiduría que debemos alcanzar, ya que el problema no es construir una IA amigable  sino enseñar a la IA a que se amigable, pero primero tenemos nosotros que aprender a ser amigables y a perseguir intereses altruistas y solidarios. Tenemos que aprender a construir una IA cada vez más inteligente y sabia para juntos construir un mundo más humano.

Antes de continuar con los riesgos futuros de la IA, vamos a ver los problemas más cercanos que ya se están produciendo y sus consecuencias.

Problemas actuales
• Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
• ¿Quién controlara la información y los procesos en su beneficio? ¿Qué hará con ella? ¿Surgirán super-monopolios, estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA? (ver los conceptos de la IA propietaria)
• Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales. Para mí este es el punto clave.
• Como hacer accesible los códigos de la IA. Actualmente ya está sucediendo en Google, Facebook, con excepción de Cuba que producto del bloqueo económico de los EEUU, no puede acceder a la información.
• Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarle solución a problemas más abstractos y dejar de lado los problemas más comunes.

Los riesgos de la super IA como parte del problema tecno-cientifico
• El peligro de una IA fuera de control que tendría sus propios objetivos (IA no alineada a los intereses humanos)
• La lenta evolución humana y sus límites biológicos, no compite con la acelerada evolución artificial (explosión de inteligencia)
• El riesgo de una simbiosis humano-tecnología no favorable a los humanos.
• No alcanzar el conocimiento necesario para manejarse con las nuevas inteligencias.

Por otra parte, no queda claro sin que una IA sea beneficiosa, quiere decir que de alguna forma va a colaborar con los humanos o, sencillamente, basta con que responda a los intereses humanos.

Otra cosa, en caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).

Si es autónoma, entonces, deberá
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Con respecto a programar una IA que responda a los intereses humanos, tendríamos que construir una superinteligencia a prueba de humanos, capaz de diferencias las bromas de lo que es en serio, de comprender las pasiones humanas, de tener sentido común, de tolerar las idioteces humanas y de diferenciar las buenas de las malas intenciones. No estaríamos cometiendo el mismo error de los años 8Os de aspirar a construir una IA capaz de resolver los problemas más complejos sin tener vivencias, y aunque la IA era capaz de resolver problemas matemáticos de alto nivel pero era incapaz de encontrar soluciones triviales que un niño podía resolver al momento. Entonces se llego a la conclusión que la máquina era muy buena para los problemas que requerían de análisis lógico (ya esto se sabía, y se decía que todas las funciones mentales se podría convertir en algoritmos) pero era ineficaz ante los problemas que requerían de sentido común, y esto si era nuevo. Y es un freno con el que se ha topado la IA desde entonces.

Por lo que me surgen algunas dudas con respecto a la construcción de una IA

  • La IA debe surgir sobre el sistema social vigente y desarrollarse dentro de la ley del mercado. Y todo indica que se construirá dentro de una transnacional. La pregunta es: ¿Quién va a construir la IA y con qué fin? Lo más probable es que la IA llegue a comprender mejor que nadie la ley del mercado y se convierta en el millonario más grande de la historia, surgirá un super monopolio controlado por la IA. Por tanto, si aceptamos la estructura social actual, la mejor solución es el control de las tecnologías, cualquier otra solución se va de control y los riesgos son incalculables.
  • No cambiar la mentalidad actual: hedonista, mercantilista, individualista, consumista. Basada en el tener, que solo busca el éxito (como fuerza externa). Los ricos ahora con la IA serán más ricos.
  • La evolución de las máquinas es más veloz que los humanos y se considera que la evolución humana es demasiado lenta o está detenida, para muchos ya se agotó. Yo pienso que en la era de las tecnologías la evolución humana se va a acelerar y dará lugar simbiosis exógena y colaborativa.
  • Querer que las tecnologías respondan a los humanos, pero… ¿No podrán las tecnologías tener sus propios intereses y construir su propio espacio vital y que este se complemente con el de los humanos?

Personalmente considero un derroche de dinero al querer construir una IA robusta. ¿Quién garantiza que las transnacionales no van a competir con la IA robusta y van a aceptar las restricciones que se propongan? Peor aún, es muy posible que la IA surja, antes, en las transnacionales, que en las instituciones que estudian los riesgos de la IA. El peligro no es una IA fuera de control sino las transnacionales que buscan las ganancias a toda costa, los militares en su lucha por la hegemonía y los gobiernos autoritarios que están construyendo fuera de control (basado en su poder económico, militar o político) una IA.

Pero hay más, el peligro no solo está en contar con un cerebro global privativo (propiedad de alguna transnacional) también surgirán diferentes versiones de humanos (mejorados por las tecnologías) y la competencia que surgirá por adquirir cada vez mas potenciales y ser superior a los demás. Lo extraño, es que hoy parece como si el único problema fuera el de la IA. Una IA que aun no se ha podido construir, en cambio ya se están desarrollando prótesis, implantes y dispositivos para mejorar las facultades humanas, y se está desarrollando la nube y toda la información está siendo procesada por Google con su buscador. Se están gestando tanto las versiones de humanos como un cerebro global (Google) que cada vez adquiere más control de nuestras vidas.

La IA estará alineada con los intereses humanos de ser más ricos y poderosos. No podemos olvidar que vivimos bajo la filosofía del tener: más riqueza, más poder, más control, etc. Lo cual nos llevara a una IA suprahumana ante la desesperación de la inteligencia natural infrahumana, que nada podrá hacer.

Por otra parte la idea de una IA amistosa, robusta y alineada con los intereses humanos nos plantea muchas interrogantes y es que el camino hacia una superinteligencia humana está plagado de riesgos, los cuales pueden ser, incluso, exacerbados con el surgimiento de la IA

Hoy estamos ante la disyuntiva de:
a) Construir una superinteligencia artificial amistosa para que después se ocupe de nuestros problemas. La pregunta es: ¿Seguiremos siendo humanos?
b) Construir una superinteligencia colectiva donde colaboren humanos y tecnologías. Se produzca una sinergia mutual entre humanos y tecnologías donde ambos se favorecen.
Cuando en realidad la IA amistosa estará alineada con los intereses humanos de ser más ricos y poderosos.

¿Se puede construir una IA alineada con los intereses humanos?

Como decía, queremos construir una IA alineada con los intereses humanos, una IA propiedad de las transnacionales, una IA propiedad del gobierno o de los militares, una IA en manos terroristas, de personas ambiciosas que buscan el poder, de fanáticos religiosos o una IA colaborativa con fines altruistas que nos haga más inteligentes y sabios

No podemos olvidar que vivimos bajo la filosofía del tener: más riqueza, más poder, más control, etc. Lo cual nos llevara a una IA suprahumana ante la desesperación de la inteligencia natural infrahumana, que nada podrá hacer.

Como podemos enfrentar los riesgos de una IA

  1. Realizar investigaciones en la ley, la ética, las políticas para una IA avanzada, debemos cuestionarnos si es correcta la ética humana actual. La necesidad de aprender a manejarse con las tecnologías y la sabiduría que debemos alcanzar.
  2. La educación relacionada con este tipo de investigación, no es construir una IA amigable, sino enseñar a la IA a ser amigable, pero, primero tenemos nosotros que aprender a ser amigables (enseñarnos a nosotros mismos). Quizás tanto la IA como nosotros podamos aprender juntos y aumentar la inteligencia y la sabiduría.
  3. Para poder entender cuáles son los intereses “humanos” primero tendríamos que definir que es el progreso humano.

En el caso de la IA robusta que implicación tendrá para el ser humano. ¿Cómo este se beneficiara?
• Lo hará más rico y poderoso (IA como producto o servicio)
• Lo hará más inteligente y sabio (IA como colaborador)
• Lo hará inmortal (IA como re-diseñadora de los humanos)

Estamos ante la falta de sabiduría humana para manejarnos con las nuevas tecnologías. ¿Qué significa la falta de sabiduría, sus consecuencias?

  • Aumento de la desigualdad
    • Buscar ganancias a toda costa
    • Usar todas las tecnologías en el ser humano
    • Fallas en la educación moral

Hoy nos encontramos en un momento de transición de la era actual socio-cultural hacia una era tecnológica y todo indica que vamos a ciegas un futuro al que nos está arrastrando nuestra mentalidad egocentrista se necesitan cambios y buscar acciones que nos permitan elegir nuestro futuro.

Imagen:   centrodeinnovacionbbva.com

 

Leave a Comment

Fields marked by an asterisk (*) are required.