paradigma conexionista

1

Hoy el temor se centra en una inteligencia artificial capaz de superar a los humanos y los peligros que esto conlleva.

SuperIAAhora la pregunta es, si surgirá una inteligencia artificial (IA) superior a la inteligencia humana. ¿Ya está la IA madura como por fin lograr la ansiada inteligencia artificial que iguale o supere a los humanos? Y surge otra pregunta tendrá consciencia esa superinteligencia?

Cuando hablamos de una superinteligencia artificial está implícito que tendrá una consciencia, no concebimos la inteligencia separada de la consciencia. Aunque yo no creo que tenga porque ser así. Y este es otro punto de vista, ¿se necesitara construirle una consciencia a las máquinas? ¿O esta emergerá por si misma?

Los argumentos para la creación de una IA han ido cambiando a lo largo del tiempo, al igual que las expectativas.

El paradigma simbolista

A finales de los 50, después de la arremetida contra la cibernética, surge la inteligencia artificial, como una ciencia en sí misma, basada en la idea de construir programas capaces de emular con la inteligencia humana. Entonces, se consideraba que la mente estaba compuesta por complejos algoritmos y que el cerebro era centro donde se procesaba la información, por lo que las investigaciones se orientaran a descifrar los programas que conforman los estados mentales o sea describir los conceptos en forma algorítmica. Para ello se desarrollaron nuevos programas basados en la lógica y la semántica del pensamiento humano. El paradigma simbólico o simbolista.

No podían faltar las predicciones, y muchos investigadores, a principio de los 60, afirmaron que en los años 80 se habría alcanzado una inteligencia artificial que no se diferenciaría de la humana. Demás esta decir que eso nunca se logró. Pero las esperanzas no se perdieron y en los 70 surgió una de las aplicaciones que mas expectativa despertó en la comunidad de IA: los sistemas expertos, los cual crearon una fiebre parecida a la del oro, y muchas empresas se lanzarón al desarrollo de sistemas expertos con fines comerciales. Pero, el proyecto más interesante, fue el proyecto japonés de quinta generación, con el cual esperaban construir una tecnología, soportada sobre el lenguaje prolog, capaz de manipular conceptos como lo hace la mente humana, una máquina basada en inferencia por segundos . Todos estos proyecto fracasaron y en los años 90, la decepción no se hizo esperar. Los investigadores de la IA se dieron cuenta que algo estaba mal.

El paradigma conexionista

Las críticas sobre el paradigma simbolista fueron en exceso duras y fueron muchos los que lo abandonaron, incluido el sueño de hacerse rico con los sistemas expertos. Ya nadie creía en una heurística general que resolviera todos los problemas, ni en encontrar una representación algorítmica adecuada a la resolución de problemas, tampoco el aprendizaje automático rendía los frutos esperados, y los sistemas expertos se hacía demasiado costosos debido a la necesidad de estar actualizando constantemente su base de conocimientos, dado su falta de contacto con el entorno (alguien los llamo sistemas autistas). Por lo que se abandonó la simulación por medio de símbolos y algoritmos de la mente de la mente por la simulación de las conexiones del cerebro, entre otros métodos conexionistas como los algoritmos genéticos, los agentes inteligentes, etc.

Ahora en lugar de buscar la representación del conocimiento humano (Ver Conocer de Francisco Valera) se buscaba la representación de elementos no inteligentes (neuronas, agentes, genes) que son capaces de ir conectados entre si para darle solución a un problema. Conexiones que se van almacenando como un aprendizaje. Esta flexibilidad permite que estos sistemas no dependan de una ingeniero de conocimientos que los este alimentando constantemente, además rompen con el esquema secuencial de paradigma simbólico que obliga a contar con una máquina de inferencia que vaya ejecutando las reglas, ahora estos entes (neuronas, agentes, genes) son se capaces de conectarse entre si y de ajustarse al problema e ir guardando su experiencia.

Siendo las redes neuronales en las que más se está trabajando. Pero surgía un nuevo problema, como simular las conexiones del cerebro en una computadora que no alcanza la velocidad de procesamiento del cerebro. Aquí surge Moravec, de quien ya hablamos, quien hace una comparación entre la velocidad de procesamiento del cerebro y la velocidad de procesamiento de la máquina, Moravec y el fin de la especie humana, y según Moravec, para el 2020 se alcanzara la equivalencia entre el cerebro humano y la máquina.

La explosión de inteligencia

Lo anterior ha ido conduciendo a un nuevo enfoque de la IA, lo cual ha divido a los investigadores de IA en dos grupos, los que defienden la explosión de la inteligencia (cuando las maquinas superan e igualan al humano) por medio del software (los programas) y los que creen en la velocidad del hardware. Y ante la dificultad que han venido desarrollando la programación de una IA tanto desde el paradigma simbolista como el conexionista, muchos investigadores se inclinan por la velocidad del hardware, y con ello la idea de construir máquinas cada vez más potentes y que en un futuro próximo (después del 2020) serán capaces de igualar la velocidad de procesamiento de información del cerebro, basándose en la inteligencia artificial fuerte. En realidad, el proyecto de crear una superinteligencia consiste en que una vez que las máquinas alcancen la inteligencia humana, ellas sean capaces de construirse a si mismas cada vez mejores

En cambio los defensores de una explosión de inteligencia por medio del software, son más moderados (con excepción de Minsky y de Google que a ratos parecen contradecirse) y no están dispuestos a seguir arriesgándose públicamente, a pesar del las aplicaciones que se han logrado por medio de las redes neuronales en los últimos tiempos.

En próximos artículos hablaremos de los peligros de la inteligencia artificial.

Foto: Actualidad RT