Inteligencia Artificial

Inteligencia artificial

0

Hoy el temor se centra en una inteligencia artificial capaz de superar a los humanos y los peligros que esto podría conllevar, no obstante los riesgos, cada vez se propaga más en los jóvenes  la idea de una IA avanzada y parece como si no existieran más alternativas. El problema radica en quela IA se está construyendo desde un pensamiento positivista-cognitivista-reduccionista-mecanicista, lo cual lleva a la construcción de una IA ajena a los verdaderos interés humanos, por eso no es de extrañar que Stephen Hawking se pregunte. ¿Si estamos tomando la inteligencia artificial suficientemente en serio?

 En el articulo “Los riesgos existenciales de una singularidad tecnológica (3)”

Decía que mi preocupación no es que la IA sea más inteligente, más amigables, ni más robusta sino que los humanos sean capaces de ampliar su inteligencia y su sabiduría junto a la IA, y lo que sucede, en realidad, es que estamos proyectando nuestra preocupación por nosotros mismos sobre la IA, y tememos que esa superinteligencia pueda hacer cosas peores que nosotros.

Considero que la justificación a los diferentes sistemas lo da la sinergia que se está produciendo entre humanos y tecnologías. Estamos hablando de una relación simbiótica y es que, por primera vez en la historia de la humanidad; podemos decidir, ya no solo que tipo de religión, de moral, de sociedad y de educación queremos sino también, qué tipo de evolución queremos alcanzar y a qué futuro queremos llegar.

Como se ve el tema es complejo y está cargado de interpretaciones, temores, expectativas e intenciones que nos desvían de un enfoque imparcial del problema, trataremos de analizar de forma, lo mas imparcial posible (teniendo en cuenta que también somos seres humanos y tenemos expectativas e intenciones) para ello nos apoyaremos del análisis realizado por Give Well “Potential risks from advanced artificial intelligence”, Ya que indaga en el problema de una forma bastante imparcial.

La pregunta es ¿Podemos dirigir la simbiosis? El mismo Nick Bostrom plantea que las tecnologías son juguetes muy peligrosos en manos de niños traviesos (los humanos). Hay que trabajar en ampliación de la inteligencia y la sabiduría humana (IA altruista), que se vaya construyendo por medio de la colaboración con los humanos donde se vaya produciendo una sinergia mutual entre ambos donde prime el progreso humano en lugar del progreso tecnológico como en los casos anteriores.

Esto lleva a profundos cambios de mentalidad y en una nueva educación que prioriza la necesidad de aprender a manejarse con las tecnologías que están emergiendo y la sabiduría que debemos alcanzar, ya que el problema no es construir una IA amigable  sino enseñar a la IA a que se amigable, pero primero tenemos nosotros que aprender a ser amigables y a perseguir intereses altruistas y solidarios. Tenemos que aprender a construir una IA cada vez más inteligente y sabia para juntos construir un mundo más humano.

Antes de continuar con los riesgos futuros de la IA, vamos a ver los problemas más cercanos que ya se están produciendo y sus consecuencias.

Problemas actuales
• Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
• ¿Quién controlara la información y los procesos en su beneficio? ¿Qué hará con ella? ¿Surgirán super-monopolios, estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA? (ver los conceptos de la IA propietaria)
• Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales. Para mí este es el punto clave.
• Como hacer accesible los códigos de la IA. Actualmente ya está sucediendo en Google, Facebook, con excepción de Cuba que producto del bloqueo económico de los EEUU, no puede acceder a la información.
• Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarle solución a problemas más abstractos y dejar de lado los problemas más comunes.

Los riesgos de la super IA como parte del problema tecno-cientifico
• El peligro de una IA fuera de control que tendría sus propios objetivos (IA no alineada a los intereses humanos)
• La lenta evolución humana y sus límites biológicos, no compite con la acelerada evolución artificial (explosión de inteligencia)
• El riesgo de una simbiosis humano-tecnología no favorable a los humanos.
• No alcanzar el conocimiento necesario para manejarse con las nuevas inteligencias.

Por otra parte, no queda claro sin que una IA sea beneficiosa, quiere decir que de alguna forma va a colaborar con los humanos o, sencillamente, basta con que responda a los intereses humanos.

Otra cosa, en caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).

Si es autónoma, entonces, deberá
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Con respecto a programar una IA que responda a los intereses humanos, tendríamos que construir una superinteligencia a prueba de humanos, capaz de diferencias las bromas de lo que es en serio, de comprender las pasiones humanas, de tener sentido común, de tolerar las idioteces humanas y de diferenciar las buenas de las malas intenciones. No estaríamos cometiendo el mismo error de los años 8Os de aspirar a construir una IA capaz de resolver los problemas más complejos sin tener vivencias, y aunque la IA era capaz de resolver problemas matemáticos de alto nivel pero era incapaz de encontrar soluciones triviales que un niño podía resolver al momento. Entonces se llego a la conclusión que la máquina era muy buena para los problemas que requerían de análisis lógico (ya esto se sabía, y se decía que todas las funciones mentales se podría convertir en algoritmos) pero era ineficaz ante los problemas que requerían de sentido común, y esto si era nuevo. Y es un freno con el que se ha topado la IA desde entonces.

Por lo que me surgen algunas dudas con respecto a la construcción de una IA

  • La IA debe surgir sobre el sistema social vigente y desarrollarse dentro de la ley del mercado. Y todo indica que se construirá dentro de una transnacional. La pregunta es: ¿Quién va a construir la IA y con qué fin? Lo más probable es que la IA llegue a comprender mejor que nadie la ley del mercado y se convierta en el millonario más grande de la historia, surgirá un super monopolio controlado por la IA. Por tanto, si aceptamos la estructura social actual, la mejor solución es el control de las tecnologías, cualquier otra solución se va de control y los riesgos son incalculables.
  • No cambiar la mentalidad actual: hedonista, mercantilista, individualista, consumista. Basada en el tener, que solo busca el éxito (como fuerza externa). Los ricos ahora con la IA serán más ricos.
  • La evolución de las máquinas es más veloz que los humanos y se considera que la evolución humana es demasiado lenta o está detenida, para muchos ya se agotó. Yo pienso que en la era de las tecnologías la evolución humana se va a acelerar y dará lugar simbiosis exógena y colaborativa.
  • Querer que las tecnologías respondan a los humanos, pero… ¿No podrán las tecnologías tener sus propios intereses y construir su propio espacio vital y que este se complemente con el de los humanos?

Personalmente considero un derroche de dinero al querer construir una IA robusta. ¿Quién garantiza que las transnacionales no van a competir con la IA robusta y van a aceptar las restricciones que se propongan? Peor aún, es muy posible que la IA surja, antes, en las transnacionales, que en las instituciones que estudian los riesgos de la IA. El peligro no es una IA fuera de control sino las transnacionales que buscan las ganancias a toda costa, los militares en su lucha por la hegemonía y los gobiernos autoritarios que están construyendo fuera de control (basado en su poder económico, militar o político) una IA.

Pero hay más, el peligro no solo está en contar con un cerebro global privativo (propiedad de alguna transnacional) también surgirán diferentes versiones de humanos (mejorados por las tecnologías) y la competencia que surgirá por adquirir cada vez mas potenciales y ser superior a los demás. Lo extraño, es que hoy parece como si el único problema fuera el de la IA. Una IA que aun no se ha podido construir, en cambio ya se están desarrollando prótesis, implantes y dispositivos para mejorar las facultades humanas, y se está desarrollando la nube y toda la información está siendo procesada por Google con su buscador. Se están gestando tanto las versiones de humanos como un cerebro global (Google) que cada vez adquiere más control de nuestras vidas.

La IA estará alineada con los intereses humanos de ser más ricos y poderosos. No podemos olvidar que vivimos bajo la filosofía del tener: más riqueza, más poder, más control, etc. Lo cual nos llevara a una IA suprahumana ante la desesperación de la inteligencia natural infrahumana, que nada podrá hacer.

Por otra parte la idea de una IA amistosa, robusta y alineada con los intereses humanos nos plantea muchas interrogantes y es que el camino hacia una superinteligencia humana está plagado de riesgos, los cuales pueden ser, incluso, exacerbados con el surgimiento de la IA

Hoy estamos ante la disyuntiva de:
a) Construir una superinteligencia artificial amistosa para que después se ocupe de nuestros problemas. La pregunta es: ¿Seguiremos siendo humanos?
b) Construir una superinteligencia colectiva donde colaboren humanos y tecnologías. Se produzca una sinergia mutual entre humanos y tecnologías donde ambos se favorecen.
Cuando en realidad la IA amistosa estará alineada con los intereses humanos de ser más ricos y poderosos.

¿Se puede construir una IA alineada con los intereses humanos?

Como decía, queremos construir una IA alineada con los intereses humanos, una IA propiedad de las transnacionales, una IA propiedad del gobierno o de los militares, una IA en manos terroristas, de personas ambiciosas que buscan el poder, de fanáticos religiosos o una IA colaborativa con fines altruistas que nos haga más inteligentes y sabios

No podemos olvidar que vivimos bajo la filosofía del tener: más riqueza, más poder, más control, etc. Lo cual nos llevara a una IA suprahumana ante la desesperación de la inteligencia natural infrahumana, que nada podrá hacer.

Como podemos enfrentar los riesgos de una IA

  1. Realizar investigaciones en la ley, la ética, las políticas para una IA avanzada, debemos cuestionarnos si es correcta la ética humana actual. La necesidad de aprender a manejarse con las tecnologías y la sabiduría que debemos alcanzar.
  2. La educación relacionada con este tipo de investigación, no es construir una IA amigable, sino enseñar a la IA a ser amigable, pero, primero tenemos nosotros que aprender a ser amigables (enseñarnos a nosotros mismos). Quizás tanto la IA como nosotros podamos aprender juntos y aumentar la inteligencia y la sabiduría.
  3. Para poder entender cuáles son los intereses “humanos” primero tendríamos que definir que es el progreso humano.

En el caso de la IA robusta que implicación tendrá para el ser humano. ¿Cómo este se beneficiara?
• Lo hará más rico y poderoso (IA como producto o servicio)
• Lo hará más inteligente y sabio (IA como colaborador)
• Lo hará inmortal (IA como re-diseñadora de los humanos)

Estamos ante la falta de sabiduría humana para manejarnos con las nuevas tecnologías. ¿Qué significa la falta de sabiduría, sus consecuencias?

  • Aumento de la desigualdad
    • Buscar ganancias a toda costa
    • Usar todas las tecnologías en el ser humano
    • Fallas en la educación moral

Hoy nos encontramos en un momento de transición de la era actual socio-cultural hacia una era tecnológica y todo indica que vamos a ciegas un futuro al que nos está arrastrando nuestra mentalidad egocentrista se necesitan cambios y buscar acciones que nos permitan elegir nuestro futuro.

Imagen:   centrodeinnovacionbbva.com

 

0

 

El desarrollo de la inteligencia artificial puede ser el mayor logro de la humanidad… Pero también el último.
Stephen Hawking

 

Singularidad tecnológica

La característica central de este siglo ha sido la aceleración del progreso tecnológico. Estamos al borde de un cambio comparable a la aparición de la vida humana sobre la Tierra. La causa exacta de este cambio es la creación inminente de entidades de inteligencia mayor que la humana.

La idea de una singularidad de Vernor Vinge la sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicara cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado lo cual conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un grafico elaborado por Hans Moravec la paridad entre el hardware y el cerebro se alcanzara alrededor del 2020 lo cual dará lugar a las máquinas superinteligentes.

Se está hablando del surgimiento de una superinteligencia artificial superior a la inteligencia humana, dado el crecimiento veloz que tiene el hardware y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Además, se parte de una inteligencia artificial fuerte que asume que la consciencia es codificable (consideran que los estados mentales son algoritmos altamente complejos).

A diferencia de los padres de la Inteligencia Artificial, que pensaban que la mente podía ser representada por medio de algoritmos y que esta podía ser programada totalmente en una computadora. Creen que las máquinas dado el progreso acelerado de la potencia de su hardware despertarán en algún momento como una inteligencia, esto nos lleva al concepto de emergencia basado en que las máquinas serán cada vez más veloces, tendrán más memoria y que esto emergerá en una nueva inteligencia. El mismo concepto se aplica para Internet, donde las conexiones entre humanos y máquinas se comportaran como neuronas dentro de una gran red, por lo que en cualquier momento de ellas emergerá una inteligencia (cerebro global).

En el articulo “Los riesgos existenciales de una singularidad tecnológica (1)” se hablaba sobre la explosión de inteligencia, inteligencias artificiales que se autoprograman así mismas cada vez más inteligentes hasta llegar a una singularidad tecnológica. Y se definían los siguientes presupuestos a tener en cuenta para lograr una explosión de inteligencia.

Un primer postulado: La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica). Se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la máquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la máquina se basa en su velocidad para calcular las variantes, lo cual le permite prever los que puede suceder en el tablero.

Un segundo postulado: La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente. La emergencia, la cual asume, que debido a la velocidad en el procesamiento de la información de la máquina, llegará un momento, que podrá manipular una gran cantidad de información y dada su complejidad podría, también, despertar como una inteligencia.

Un tercer postulado: Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos. Las máquinas al alcanzar cierta inteligencia serán capaces de construirse a si misma cada vez mejores hasta llegar a una superinteligencia.

En la singularidad de Vinge, menos optimista y radical que Kurzweil, se plantean cuatro vías para alcanzar la singularidad tecnológica, la cual puede agruparse en dos grupos.
1.-Relacionada con una inteligencia artificial. Superinteligencia artificial
2.-Relacionada con la ampliación de la inteligencia

En el primer caso estamos hablando de una IA que se construirá para que esta sea cada vez más autónoma. Ahora la pregunta es, ¿a quién responderá esta superinteligencia artificial? Teniendo en cuenta que será más inteligente que los humanos, es importante saber quiénes la van a utilizar y con qué fin. Por lo que al final estaríamos hablando de un software propietario, propiedad privada de alguien. Por lo que tendremos varias posibilidades.

  • Superinteligencia artificial creada (en sus bases para que siga mejorándose por sí misma) por los centros de investigación.
  • Superinteligencia artificial creada con fines militares, ya sea por militares o alianzas.
  • Superinteligencia artificial creada por las grandes transnacionales como parte de su Know How, con fines económicos (las actuales grandes transnacionales de la información, encabezadas por Google).
  • Superinteligencia artificial creada con fines comerciales, su propósito es vender los sistemas.
  • Superinteligencia artificial creada por la comunidad de software libre.

Con respecto a la ampliación de la inteligencia surgen tres vías (ver Inteligencia artificial: ¿Hay razón para preocuparse? )

  • Superinteligencia colectiva (sistemas cooperativos conformados por la relación (colaboración) entre humanos y tecnologías
  • Superinteligencia hibrida, ampliación de las capacidades humanas por medio de dispositivos cibernéticos, estamos hablando del Cyborg.
  • Superinteligencia biológica, ampliación de la inteligencia por medio de la ingeniería genética.

También la ampliación de la inteligencia se puede lograr por cualquiera de las posibilidades mencionadas anteriormente, pero, si en el caso de la inteligencia artificial los más beneficiados van a ser las transnacionales de la información como Google, Facebook, Microsoft, etc., ahora van a ser las empresas que se dedican a la venta de componentes cibernéticos como prótesis, chips, dispositivos biónicos o interfaz cerebro-máquina, entre otros siguiendo la línea de un humano mejorado por medio de las tecnologías.

Ni que decir de los proyectos militares, tales como el ideal de crear un superhumano, o las consecuencias sociales de colocar en el mercado dispositivos que permitan alcanzar poderes sobre humanos que tendrán consecuencias tanto ética como sociales ante un mercado que solo responde a las ganancias (ver El desafío de la inteligencia artificial). No se puede ignorar que vivimos en un contexto social competitivo donde se favorece el crecimiento económico a toda costa y el consumismo desmedido, lo cual nos lleva a la competencia por los mercados y, lo más grave, es que la ley del mercado nos está arrastrando a un futuro incierto, ajeno a un verdadero progreso humano.

El tema de los riesgos existenciales desarrollado por el filosofo y transhumanista Nick Bostrom, es el punto de partida para señalar los peligros de la inteligencia artificial, me llama la atención que cada vez se separan más los ideólogos del transhumanismo de los defensores de una singularidad tecnológica y es que mientras a los primeros les preocupa más las tecnologías para el mejoramiento de las facultades humanas a los segundos le fascina la idea de una super inteligencia artificial y la explosión de inteligencia que se producirá. Y precisamente es de la posibilidad de que surja una superinteligencia y el impacto que tendrá sobre la humanidad, tema que se puesto de moda, sobre todo después de las declaraciones hechas por Stephen Hawking, Elon Musk y Bill Gate.

Personalmente me inclino por una   superinteligencia colectiva, que su fin sea la ampliación y de la sabiduría humana y que se oriente hacia la construcción entre humanos (sin excepciones) y máquinas, de una estructura social colaborativa, donde los actores sociales sean la sociedad civil liderada por la comunidad de software libre, en alianza con organizaciones no gubernamentales y centros de investigación no comprometidos con las elites de poder.

Imagen: cordis.europa

 

0

La inteligencia artificial (IA)

La IA durante sus primeros años se mantuvo fiel al paradigma simbolista, el cual a su vez se dividía en dos grupo, los que se apoyaban en la lógica para la representación de los conocimientos, un ejemplo de ello el el lenguaje Prolog y los que se apoyaban en la semántica y buscaban representar los conocimientos a través de estructuras semánticas como guiones, marcos (frames), redes semánticas, etc. Pero ambos se basaban en la presentación de los estados mentales en forma de algoritmos. Con el tiempo surgió un nuevo paradigma: el conexionista el cual más que representar los estados mentales buscaba la representación de las conexiones que se establecen entre las diferentes de una organismo, ya sean neuronas (redes neuronales), agentes (agentes inteligentes), genes (algoritmos genéticos) y como de estas conexiones se genera un accionar inteligente.

Hoy en día el enfoque más prometedor parece ser en de las redes neuronales, el cual está siendo adoptado actualmente por Google, en su aspiración de crear una inteligencia artificial. Las redes neuronales a diferencia de los sistemas simbolistas que obligaba a describir todo el conocimiento humano en forma de reglas, lo cual obligaba a tener en cuenta toda la experiencia humana, tarea imposible. Las redes neuronales permiten crear un núcleo de conexiones, que esta puedan sobre su propia experiencia ir ampliándose, similar a como funciona el cerebro.

Otro de los problemas era el aprendizaje automático, como lograr que la maquina fuera aprendiendo por sí misma, si era un sistema que estaba aislado de la realidad y había que estar suministrándole los datos del mundo exterior, era necesario que las máquinas estuvieran interactuando con el mundo real, lo cual llevo a un retorno a la cibernética y sus ciberanimalitos. Hoy Rodney Brooks, investigador del MIT, tiene deambulando por su oficina pequeñas arañas cibernéticas, cuyo único objetivo es aprender a desplazarse por el laboratorio.

En estos tiempos se ha puesto de moda el concepto de aprendizaje profundo, el cual consiste en comprender y profundizar sobre los conocimientos propios y obtener nuevos conocimientos. Lo cual requiere de la ya mencionada interacción con el mundo, un sistema aislado como se pretendía con los sistemas expertos, es imposible que aprende por sí mismo. La forma más utilizada ha sido, desde la cibernética hasta nuestros tiempos, el uso de pequeños robots con uno conocimientos mininos, pero que sus “cerebro electrónico” sea capaz de crear nuevas conexiones y nuevas interpretaciones de la realidad, la otra seria un sistema (software) que este en interacción con el medio, el caso del buscador de Google, que esta interactuando con los usuarios y puede aprender de ello, por eso no es de extrañar que Google este apostando al aprendizaje profundo y realizan enormes inversiones. Lo interesante en Google, es que esta combinando las ideas de las redes neuronales con las del aprendizaje profundo y para ello ha contratado a varios expertos en las dos ramas los que tiene trabajando en la creación de un buscador inteligente, lo que justifica porque el desinterés de Google en la web semántica, evidentemente su proyecto es otro.

Actualmente Google está utilizando el aprendizaje profundo para mejorar el sistema de reconocimiento de voz en su sistema operativo Android. Ray Kurzweil, conocido por sus ideas una singularidad tecnológica y de la posibilidad de crear una mente superior a la humana, ha vaticinado el surgimiento en Google de un amigo cibernético basado en el aprendizaje profundo que escucha adentro en su conversación telefónica, lee sus mensajes de correo electrónico y realiza un seguimiento de todos tus movimientos para que pueda saber las cosas que usted quiere saber, incluso antes de preguntar.

El mundo está cambiando y la idea que teníamos de una inteligencia artificial surgida de los grandes centros de investigaciones y que luego comenzaría a aplicarse lentamente en las grandes empresas, hoy no se cumple y todo indica que las grandes transnacionales encabezadas por Google van a in construyendo y aplicando su propia inteligencia artificial. Ahora la pregunta es: ¿Qué consecuencias tendrá para la humanidad? De esto hablaremos en el próximo artículo.

0

Superinteligencia artificial

Podemos preguntarnos si es posible el surgimiento de una inteligencia superior a la humana, de lo cual hemos hablado en artículos anteriores. Comenzaremos por la definición de Singularidad tecnológica dada en Wikipedia: “Es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana, cambiando nuestro entorno de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir”. De lo que se desprende que para que se produzca ese progreso tecnológico acelerado que se nos escapa de las manos y somos incapaces de predecir una vez que se desencadeno, es el surgimiento de una inteligencia superior a la humana.

Siguiendo a Vinge, el primero en usar el término singularidad tecnológica, esta inteligencia artificial superior a la humana se puede lograr por cuatro vías: superinteligencia artificial (cuando las máquinas se hacen más inteligentes que los humanos), superinteligencia hibrida (cuando los humanos y las máquinas se funden en un Cyborg), superinteligencia colectiva (cuando humanos y máquinas por medios de internet interactúan y crean una inteligencia colectiva o cerebro global) y la superinteligencia biológica (donde se mejora la inteligencia a través de la manipulación genética). Siendo la superinteligencia artificial la más defendida por los teóricos de la singularidad.

Aunque la superinteligencia artificial parecía la más lejana de las cuatro dado el estado del arte de las investigaciones en inteligencia artificial y el sueño de una inteligencia artificial parecía abandonado, los denodados esfuerzos de Ray Kurzweil, la han puesto de nuevo de moda y prueba de ello son la creación de la Universidad de la Singularidad por el propio Kurzweil y su ingreso en Google como directivo para el desarrollo de la IA. Ya el hecho de que Google se haya tomado en serio las ideas de Kurzweil, demuestra que la transnacional está convencida de la posibilidad de alcanzar una superinteligencia artificial (en otro artículo nos referiremos a los pasos que está dando Google) y por lo tanto la aceptación del surgimiento de una singularidad tecnológica y el ideal de una inteligencia artificial capaz de autoprogramarse, de aprender por sí misma y en un futuro ser autoconsciente. El cofundador de Google Sergey Brin dijo que sueña con un día construir el equivalente a HAL de 2001: Una odisea del espacio, excepto que su HAL no mataría a la gente.

Como alcanzar una inteligencia artificial (IA)

1.- El test de Turing, idea del matemático inglés Alan Turing: Sostiene que un sistema se considera inteligente cuando se puede conversar con él sistema sin que se note que es una computadora, aquí estamos hablando de una maquina que iguala al razonamiento humano ya que es capaz de pensar y hablar como un humano (al menos no se hace la diferencia).

2.- El modelo emergente: La idea de lograr construir una mente siguiendo la idea de descifrar los algoritmos de la mente para luego reproducirlo en una maquina resulto demasiado ingenua y agotadora, influidos por la idea de una singularidad tecnológica que parte que la consciencia dada ciertas circunstancia puede emerger por sí misma, se abandono la idea de una intelgiencia artificial (IA) totalmente reconstruida por otra donde solo se necesita desarrollar el núcleo de esa IA y que esta, luego, sea capaz de reproducirse a si misma hasta despertar como una inteligencia. Aquí se hace hincapié en computadoras cada vez más veloces, capaces de procesar una mayor cantidad de conocimientos o que se pueden representar una mayor cantidad de conexiones emulando el funcionamiento del cerebro (redes neuronales)

3.- La construcción de una mente. El sueño de la inteligencia artificial fuerte, de copiar la mente en una computadora. Se asume que el cerebro y la computadora son dos sistemas equivalentes ya que ambos se basan en el procesamiento de la información y la única diferencia está en el soporte que utilizan, los humanos el cerebro y las maquinas su hardware. Lo único que hay que hacer es encontrar la forma como el cerebro procesa la información (los programas que lo componen) y reproducirlos en una computadora. Como dije anteriormente, esta idea había sido abandonada pero recientemente ha recibido nueva fuerza y así como nuevas interpretaciones, pero el principio sigue siendo el mismo, la equivalencia entre uno y otro. En este caso si podemos hablar de maquinas con sentimientos con consciencia de sí misma, incluso de copias humanas viviendo en Internet, al estilo matriz.

4.- La simulación del pensamiento: Se acepta que la forma de pensar de los humanos es totalmente diferente a la de las maquinas (inteligencia artificial débil) y que el método es crear programas capaces de desarrollar actividades llamadas inteligentes sin imitar al pensamiento humano. Por supuesto, esto nos lleva a maquinas carentes de sentimientos (al menos como los humanos), tan inteligentes como los humanos o quizás más, pero dentro de su propia estructura.

5.- La reconstrucción del cerebro, Aunque se parece a la idea de reconstruir la mente, no es igual, mientras la anterior se basa en reproducir la mente por medio del software, aquí se quiere reproducir las funciones del cerebro neurona a neurona, hasta alcanzar la capacidad de procesamiento del mismo.

Como dije al principio, la idea de una superinteligencia artificial, bajo la influencia de Ray Kurzweil, esta logrando nuevos bríos, lo que antes no pasaba de ser una especulación de una de las mentes más fértiles de este siglo, ahora con su inclusión en Google, la idea ha ido cobrando cierto matiz de realidad, claro que para eso Kurzweil ha tenido que aterrizar un poco sus ideas, pero bueno, esto es tema para un próximo artículo

 

0

inteligencia-artificial-5La inteligencia artificial (IA) parecía haberse agotado, tanto en lo teórico como en sus aplicaciones, y en sus paradigmas simbólico como conexionista, habían llegado a un callejón sin salida. La idea de querer reproducir la mente humana por medio de programas computacionales se fue lentamente abandonando, y el tiro de gracia se lo dio la tremenda expectativa que crearon los sistemas expertos, cuyo inicio fue desencadenado luego de las paradigmáticas aplicaciones, Dendral y Mycin. Se pensó, entonces, que por fin la IA había dado frutos, después de largos intentos de laboratorio en los que se incluyeron la comprensión del lenguaje natural desde el mítico Eliza, o los mundo de bloque y el sistema Schrdlu, o superlenguajes de programación que intentaban acercar a la computador al ser humano, tales como Lisp y Prolog.

Con los sistemas expertos, se repitió la fiebre del oro y se asumió que se convertirían en la gran aplicación de la informática después de Dendral y Mycin surgieron cientos de sistemas expertos que imitaban la lógica de ambos programas siendo el segundo el que dio lugar a las aplicaciones más prometedoras y la división actual de los sistemas expertos en máquina de inferencia, base de conocimientos y base de hechos. El fracaso pronto se hizo notar, del cual enumeramos algunas de las razones de la perdida de interés que fue sufriendo:

  • La complejidad de su programación, no se justificaba el esfuerzo con los resultados posteriores.
  •  La limitación a un área  especifica o sea la restricción a un dominio de conocimiento,  lo cual limitaba su uso.
  • La necesidad de estar alimentado la base de conocimientos, carecían de aprendizaje.
  •  El temor de los expertos a ofrecer sus conocimientos, ya que podían ser sustituidos por una maquina.
  • El surgir de aéreas de investigación y su desconocimiento del mercado así como su falta de compromiso con la aplicación una vez en uso.
  • La desconfianza que genera aceptar el  juicio de una maquina.
  • La interpretación de hacia el ingeniero de conocimiento (especialista) de los conocimientos de un experto, no siempre eran exactos.
  • Y por último, eran los conocimientos de un experto, con el cual, el resto de los expertos podía no estar de acuerdo.

En fin eran tantas las dificultades, que la esperanza en los sistemas de expertos como un nuevo nicho de mercado se fue esfumando,  aunque los principios y los conocimientos han perdurado y siguen dando lugar a nuevas aplicaciones, lo cual llevo a una nueva crisis en la inteligencia artificial.

Desde entonces la IA se fue volviendo más modesta y sus pretensiones de crear una mente artificial basada en programas de computación y que a su vez fuera autoconsciente, inteligencia artificial fuerte,  sin tener en cuenta al cerebro ni al entorno, fue sustituida por el desarrollo de métodos y aplicaciones más acorde con el funcionamiento del cerebro o del accionar humano, nos referimos a las redes neuronales, los algoritmos genéticos de una parte, o los agentes inteligentes, los sistemas cooperativos y los autómatas que aprenden del entorno, de la otra.

Otro fenómeno que ha ido surgiendo, es la perdida de “elitismo” de los investigadores de la IA, lo cual decidían que era una investigación de IA y que no era. Por lo que podías estar trabajando en el área de la IA sin ser reconocido ni invitado a ningún evento, y las aplicaciones, exitosas o no, no pasaban de ser hijos bastardos de la IA. Hoy el protagonismo en la IA no lo tienen los centros de investigación sino los laboratorios de I+D de las grandes transnacionales de la información: IBM, Microsoft, Google, Facebook, Aple, Amazon… De esto y otras cosas, seguiremos hablando en el próximo artículo.

0

Este año en Universidad de Pekin (China cuya presencia cada vez es más fuerte en el mundo y la Inteligencia Artificial no es una excepción) se está celebrando la Sexta Conferencia sobre Inteligencia Artificial General (AGI 2013) y a continuación, en el mismo escenario, de 3 al 9 de agosto, se celebrará la XXIII Conferencia Internacional Conjunta sobre Inteligencia Artificial.

La Inteligencia Artificial General (AGI, en inglés) es un intento de retomar la idea de una inteligencia artificial fuerte (ver, en este blog, el artículo anterior) dado los nuevos conceptos que ha ido surgiendo en la actualidad, sobre todo las idea del surgimiento de una superinteligencia artificial y de una posible singularidad tecnológica, siendo Ray Kurzweil el punto de referencia de este movimiento.

Haciendo historia, la Inteligencia Artificial (IA) luego de la euforia de sus primeros años, y ante los fracasos de sus pronósticos, siendo el proyecto de quinta generación japonés, uno de los más connotados, se sumergió en una profunda crisis, al extremo que muchos científicos abandonaron su línea de investigación y otros como Minsky, uno de los padres de la IA junto a Mc Carthy, se mostraba molestó ante la falta de apoyo cada vez mayor que estaba sufriendo las investigaciones en la IA.

En su momento los Sistemas Expertos (SE) se convirtieron en la gran esperanza, aunque no fue muy acogida por los teóricos de la IA (algunos le llamaron los hijos bastardos de la IA) si conto con el apoyo financiero y logístico para su despegue y fueron muchos los que pasaron a engrosar las filas de investigadores de este nueva aplicación. De nuevo las expectativas se fueron por encima de la realidad y nuevamente el sentimiento de fracaso invadió a los científicos.

Parecía cuestión de tiempo, que la IA fuera a pasar a un segundo plano y perdiera su influencia como una de las líneas más promisorias dentro de las tecnologías de la información. Para beneplácito de muchos la IA, al igual que la Cibernética (de está hablaremos en otro artículo) está cogiendo un segundo aire

Serían las ideas de Hans Moravec, Vernor Vinge y sobre todo las de Kurzweil, las que le darían un nuevo impulso a la IA y se retomaría nuevamente la casi olvidada idea de una Inteligencia Artificial Fuerte. Es bueno aclarar que para comprender a la IA hay que verla desde tres enfoques: IA fuerte, IA débil y la IA comercial.

La IA fuerte, como ya dijimos en el artículo anterior, está convencida de que la mente humana se puede reproducir en una computadora, la IA débil, se dedica a desarrollar programas que sean capaces de resolver actividades consideradas inteligentes, y no les preocupa que la máquina, como tal, pueda considerarse inteligente; a la IA comercial solo le interesa aplicar las técnicas de la IA en elaborar sistemas que puedan ser comercializados y no le importa si estos simulan o no la inteligencia.

Podemos decir que muchas técnicas, salidas de los laboratorios de la IA, se están aplicando, hoy, en muchos sistemas que ni siquiera se menciona su relación con la inteligencia artificial.

Volviendo al evento AGI 2013, los organizadores se plantean la necesidad de volver a los objetivos originales de la IA, mediante el tratamiento de la inteligencia en su conjunto y hacen un llamado a una transición a hacer frente uno de los problemas más difíciles, la comprensión de la mente humana, y resaltan como diferencia con respecto a la IA convencional, que la inteligencia artificial general hace hincapié en la versatilidad y la integridad de la inteligencia (en franca oposición a los sistemas expertos), y por llevar a cabo la práctica de una ingeniera que siga el esquema de la mente humana.

Es bueno destacar que la inteligencia artificial general toma elementos de la IA fuerte y la IA débil, evitando el excesivo optimismo de algunos defensores de la inteligencia artificial fuerte.

Libro recomendado:
Inteligencia Artificial, el futuro del hombre
Más libros del autor

1

Después del paradigma cibernético con su intento de construir una mente mecánica (de esto hablaremos en otro artículo), le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora.

Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifrara los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, es obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.

Como siempre sucede, los investigadores en inteligencia artificial,(IA) no se ponían de acuerdo en si, esa representación simbólica, se basaba en la lógica (la sintaxis, cálculo de predicados) o en la semántica (estructuras semánticas, guiones). Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrpastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero, métodos a parte, ambos compartían un sueño: descubrir los programas que hacen funcionar la mente.

De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.

Ahora, una vez que la maquina tenga todos los algoritmos que conforman la mente, y este es uno de los problemas de la IA convencional, ya que, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se halla reproducido totalmente la mente humana, y pueda funcionar en una computadora. Muchos investigadores, en esa época de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.

Y aquí es cuando surgió una interrogante, que ha perdurado hasta nuestros días: ¿si se reproducía la mente humana en una máquina, esta no sería consciente? Esto llevó a las siguientes definiciones.

1. La consciencia no se puede atribuir a procesos puramente físicos y, por lo tanto, es inaccesible incluso a un abordaje científico arbitrariamente avanzado (metafísico)
2. La consciencia surge de procesos puramente físicos del cerebro pero sostiene que estos son tan complejos o tan alejados de la comprensión científica, que prácticamente no hay esperanza de que podamos duplicarlos (físico/irreproducible).
3. Es posible que podamos comprender y duplicar los procesos que dan lugar a la consciencia, aunque esto quizás resulte una labor extremadamente difícil (físico/reproducible).
4. La consciencia no es algo tan especial y que una máquina a la que se haya provisto de suficiente inteligencia, con el tiempo adquirirá consciencia de manera más o menos automática (trivial).

Los que defienden la IA fuerte sostienen los puntos de vista 3 y 4
Los partidarios de la IA débil se inclinan por 1 y 2.

Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia.

Recomendación:
Inteligencia artificial, el futuro del hombre