junio 2015 Archives

0

Avengers-age-of-ultronHoy se ha puesto de moda la inteligencia artificial (IA), no tanto como área de investigación sino como los riesgos que representa. Debemos recordar que la IA siempre fue bastante incomprendida y para los fabricantes de software era una pérdida de tiempo y de dinero. Solo en los 8Os con la aparición de los sistemas expertos hubo cierto boom, que terminó siendo un espejismo, los sistemas basados en la IA seguían siendo demasiado costosos y poco productivos y la IA se sumió en una gran crisis (Crisis de la inteligencia artificial) en la que muchos auguraban su final.

De las ruinas de la IA surgió un optimismo renovado que cogió como bandera, ya no la idea del software sino la del hardware, la de computadoras cada vez más potentes, cuya velocidad sería capaz de procesar más información, teniendo en cuenta que el cerebro no es otra cosas que un procesador de información, estamos asumiendo un enfoque trivial de la conciencia que parte de la metáfora de la computadora (¿Qué es la inteligencia artificial fuerte?), siendo Hans Moravec el mayor defensor de esta idea.

Para muchos investigadores los programas con inteligencia artificial habían llegado a un callejón sin salida y ahora la posibilidad de que surgiera una inteligencia que pudiera igualar a la humana por medio de un hardware, cada vez más evolucionado, se convertía en una nueva esperanza. La inspiración final la daría Vernor Vinge (matemático y escritor de ciencia ficción) con su enfoque de una (Singularidad tecnológica) de la cual surgiría una nueva fuente de inspiración: la explosión de inteligencia, la que parte de la definición de máquinas capaces de autoprogramarse de forma ilimitada, o sea, una máquina será capaz (partiendo de un programa inicial desarrollado por los humanos) de ella por si misma de construir programas cada vez mejores, la idea consiste en que podrá construir un programa que a su vez construirá otro programa mejor y este a su vez otro mejor, así indefinidamente, hasta igualar la inteligencia humana y luego, nada impide, que siga mejorándose hasta superar a la humana, y lo más interesante es que este proceso no tendría fin.

Con respecto a la propagación de la singularidad tecnológica mucho ha tenido que ver el científico e inventor Ray Kurzweil, quien ahora es uno de los ingenieros (yo diría que el ideólogo para el futuro de la IA) de Google. Su trabajo como promotor y divulgador de la singularidad tecnológica ha sido clave en la aceptación de la idea, Hoy existen una gran cantidad de eventos, libros, revistas, etc., que tratan el tema de la singularidad o el de una super inteligencia artificial (Super inteligencia artificial), la consecuencia más importante de la singularidad tecnológica. Y este es el punto donde vamos a detenernos.

Luego del actual entusiasmo de las transnacionales de la IA por construir una inteligencia artificial hasta el extremo que hoy nadie espera que la IA surja de un laboratorio de investigación sino de una empresa privada, y todos esperan que sea en Google, dado las inversiones gigantescas que ha estado llevando a cabo. Y aunque muy pocos lo digan directamente, y se van por la tangente de los peligros de una IA fuera de control, la realidad es que causa preocupación la idea de una IA que sea desarrollada e implementada por una empresa privada, de ahí la carrera por construirla cuanto antes. Precisamente aquí es donde se escapa del control, ya que la inteligencia artificial deja de responder a intereses científicos para responder a los intereses del mercado.

El tema de los riesgos existenciales desarrollado por el filosofo y transhumanista Nick Bostrom, es el punto de partida para señalar los peligros de la inteligencia artificial, me llama la atención que cada vez se separan más los ideólogos del transhumanismo de los defensores de una singularidad tecnológica (de esto hablaré en otro artículo) y es que mientras a los primeros les preocupa más las tecnologías para el mejoramiento de las facultades humanas a los segundos le fascina la idea de una super inteligencia artificial y la explosión de inteligencia que se producirá. Y precisamente es de la posibilidad de que surja una superinteligencia y el impacto que tendrá sobre la humanidad , tema que se puesto de moda, sobre todo después de las declaraciones hechas por Stephen Hawking.

Recientemente el sitio Edge lanzó la siguiente pregunta a un grupo de científicos, filósofos y escritores: ¿Qué piensas sobre máquinas que piensan? Y me gustaría ir comentando algunas de las publicaciones. Comenzaré por el de Max Tegmark, físico e investigador en el MIT, dado su llamado a prepararnos para el adveniemiento de una nteligencia artificial superior a la humana (Let’s Get Prepared!). Veamos

Tegmark parte de tres postulados iníciales
– ¿Qué le pasará a los humanos si las máquinas gradualmente lo van reemplazando en el mercado de trabajo?
– Si las máquinas llegaran a competir con los seres humanos en todas las actividades intelectuales
– ¿Qué pasará luego de que una explosión de inteligencia de las máquinas deje muy atrás a la inteligencia humana y en ese caso, cuál será el papel de los seres humanos?

El primer caso, es un problema que se remonta al ludismo y su rechazo a las tecnologías, y es que cualquier tecnología va a sustituir a los humanos, primero la mano de obra, después las tareas intelectuales y por último las investigaciones, la buena noticia es que, a su vez crean nuevos puestos de trabajo, por ejemplo las tecnologías de la información son un ejemplo: programadores de aplicaciones informáticas, operadores de máquinas, instaladores de sistemas, la lista en bastante larga. El problema es adaptarse al cambio.

Para el segundo caso no basta con adaptarse una vez que se produzca el cambio, ya hay que estar preparado para el cambio, y mejor aun, ser actores sociales del cambio. Pienso que la estructura social actual, basada en la competencia no favorece una relación humano-tecnología colaborativa y más bien nos conducirá a un enfrentamiento, si desde hoy no se va creando una estructura social basada en la colaboración entre humanos que permita que las IAs se integren de forma natural a ese contexto colaborativo.

Otra paso importante es la definición del espacio vital de cada cual, en especial en que línea las máquinas serán mejores que los humanos y en cuales los humanos serán mejores, y cómo será la complementación entre ambos.

Dejo el último punto para el próximo artículo, en el cual seguiremos ahondando sobre el tema.

0

SuperIAHabíamos vista en el artículo anterior que Tegmark planteaba tres grandes preocupaciones con respectos a la IA.
– ¿Qué le pasará a los humanos si las máquinas gradualmente lo van reemplazando en el mercado de trabajo?
– Si las máquinas llegaran a competir con los seres humanos en todas las actividades intelectuales
– ¿Qué pasará luego de que una explosión de inteligencia de las máquinas deje muy atrás a la inteligencia humana y en ese caso, cuál será el papel de los seres humanos?

El dilema de la super inteligencia consiste en si se debe desarrollar una inteligencia superior a los humanos o no. Y si de decide desarrollarla, estaremos ante otro dilema: se debe controlar o no. Las posiciones son encontradas; los que están a favor de prohibir las ven como un peligro, sería otra inteligencia que al final terminaría por desplazar a los humanos. Los que piensan que se debería construir pero bajo ciertas normas o controles y los que creen que la super IA es lo mejor que nos puede pasar y lo ideal es que suceda cuanto antes. Existen otras posiciones más o menos radicales, que no las voy a mencionar ahora.

Otro cuestionamiento consiste en si las tecnologías son un proceso inevitable de crecimiento (aceleración tecnológica) que no se puede detener, este es un problema atañe a toda la sociedad e implica riesgos sociales y económicos y puede desencadenar una lucha por construir una superinteligencia privada que permita el monopolio de la información.

Ahora en bien, caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).

En caso que sea autónoma deberá
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Con respecto a programar una IA que responda a los intereses humanos, tendríamos que construir una super inteligencia a prueba de humanos, capaz de diferencias las bromas de lo que es en serio, de comprender las pasiones humanas, de tener sentido común, de tolerar las idioteces humanas y de diferenciar las buenas de las malas intenciones. No estaríamos cometiendo el mismo error de los años 8Os de aspirar a construir una IA capaz de resolver los problemas más complejos sin tener vivencias, y aunque la IA era capaz de resolver problemas matemáticos de alto nivel pero era incapaz de encontrar soluciones triviales que un niño podía resolver al momento. Entonces se llego a la conclusión que la máquina era muy buena para los problemas que requerían de análisis lógico (ya esto se sabía, y se decía que todas las funciones mentales se podría convertir en algoritmos) pero era ineficaz ante los problemas que requerían de sentido común, y esto si era nuevo. Y es un freno con el que se ha topado la IA desde entonces.

Lo anterior ha dado lugar a nuevas líneas de investigación siendo la más destacada la Roney Brooks, investigador del MIT, quien se dio a la tarea de construir pequeños robots capaces de ir aprendiendo de su entorno, en lugar de querer desarrollar un sistema que contenga todos los conocimientos humanos. Otras líneas de investigación están ligadas con las redes neuronales, con el aprendizaje automático, con las plataformas multiagentes y con los algoritmos genéticos, entre otras.

La otra dificultad es, ¿Cómo podrá la IA integrarse al contexto social actual? Se habla de una versión inicial de IA donde se tenga en cuenta cómo será su evolución posterior. Ahora que pasará cuando la IA se comience a desarrollar el contexto actual de poder, irá adquiriendo los conocimientos necesarios para luchar por la hegemonía y terminará inevitablemente controlando a los humanos y no tendrán otra elección que competir con los humanos y con el tiempo pasarán de ser propiedad de los humanos a ser propietarios de las empresas y de todos los recursos, incluyendo a los humanos, por eso para muchos la única opción es fusionarse en toda la línea tecnológica.

Están los que creen que el surgimiento de una super inteligencia artificial (la idea de una singularidad tecnológica) es lo mejor que nos puede suceder, pienso que es un error que el destino de la humanidad se decida cuando surja una superi inteligencia artificial; el destino de la humanidad lo deben decidir los humanos, solo enfrentando sus propias limitaciones, no solo las biológicas como aspiran los transhumanistas, sino las propiamente humanas y se apostara por un progreso humano verdaderamente digno. No podemos evadirnos de los problemas del presente y delegarlos en la IA ya que esta lo que hará será profundizarlos.

Problemas del presente
– El desempleo
– El control de la información y la pérdida de la intimidad
– Los monopolios informáticos que buscan el control de internet (cuando se desarrolle una IA esta será propiedad de ese monopolio)
– ¿Como la sociedad civil puede usar internet para hacer valer sus derechos? ¿Puede internet darle mayor participación a la sociedad civil?
– ¿Cómo hacer accesible los códigos de la IA para que no queden solo en manos de las empresas privadas, de los militares o de los gobiernos?
– ¿Cómo podemos ir cambiando nuestro contexto social basado en la competencia por una sociedad basada en la colaboración?

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarle solución a problemas más abstractos y dejar de lado los problemas más comunes.