IA

0
stephen-hawking

Stephen Hawking se pregunta. ¿Si estamos tomando la inteligencia artificial suficientemente en serio?

La creación de una Inteligencia Artificial (IA) siempre se consideró como una tarea exclusiva de científicos superdotados que trabajaban en modernos centros de investigación, ubicados en los países más desarrollados del planeta. Era algo ajeno a las verdaderas necesidades informáticas del mundo. Trabajar en la IA fuera de los grandes centros, era considerado una pérdida de tiempo, y si lo hacías desde un país en vías de desarrollo, era una locura. Y, aunque, en este último aspecto no se ha cambiado mucho, si estamos ante un nuevo fenómeno: la IA se ha escapado de los grandes centros de investigación para integrarse a las aéreas de investigación de las transnacionales de las nuevas tecnologías.

En los inicios de la IA, cuando todo era más claro, solo existían dos grandes enfoques teóricos (más bien filosóficos), los que defendían la idea de una inteligencia artificial fuerte y los que se inclinaban por una IA débil.

Leer más…

0

La inteligencia artificial (IA)

La IA durante sus primeros años se mantuvo fiel al paradigma simbolista, el cual a su vez se dividía en dos grupo, los que se apoyaban en la lógica para la representación de los conocimientos, un ejemplo de ello el el lenguaje Prolog y los que se apoyaban en la semántica y buscaban representar los conocimientos a través de estructuras semánticas como guiones, marcos (frames), redes semánticas, etc. Pero ambos se basaban en la presentación de los estados mentales en forma de algoritmos. Con el tiempo surgió un nuevo paradigma: el conexionista el cual más que representar los estados mentales buscaba la representación de las conexiones que se establecen entre las diferentes de una organismo, ya sean neuronas (redes neuronales), agentes (agentes inteligentes), genes (algoritmos genéticos) y como de estas conexiones se genera un accionar inteligente.

Hoy en día el enfoque más prometedor parece ser en de las redes neuronales, el cual está siendo adoptado actualmente por Google, en su aspiración de crear una inteligencia artificial. Las redes neuronales a diferencia de los sistemas simbolistas que obligaba a describir todo el conocimiento humano en forma de reglas, lo cual obligaba a tener en cuenta toda la experiencia humana, tarea imposible. Las redes neuronales permiten crear un núcleo de conexiones, que esta puedan sobre su propia experiencia ir ampliándose, similar a como funciona el cerebro.

Otro de los problemas era el aprendizaje automático, como lograr que la maquina fuera aprendiendo por sí misma, si era un sistema que estaba aislado de la realidad y había que estar suministrándole los datos del mundo exterior, era necesario que las máquinas estuvieran interactuando con el mundo real, lo cual llevo a un retorno a la cibernética y sus ciberanimalitos. Hoy Rodney Brooks, investigador del MIT, tiene deambulando por su oficina pequeñas arañas cibernéticas, cuyo único objetivo es aprender a desplazarse por el laboratorio.

En estos tiempos se ha puesto de moda el concepto de aprendizaje profundo, el cual consiste en comprender y profundizar sobre los conocimientos propios y obtener nuevos conocimientos. Lo cual requiere de la ya mencionada interacción con el mundo, un sistema aislado como se pretendía con los sistemas expertos, es imposible que aprende por sí mismo. La forma más utilizada ha sido, desde la cibernética hasta nuestros tiempos, el uso de pequeños robots con uno conocimientos mininos, pero que sus “cerebro electrónico” sea capaz de crear nuevas conexiones y nuevas interpretaciones de la realidad, la otra seria un sistema (software) que este en interacción con el medio, el caso del buscador de Google, que esta interactuando con los usuarios y puede aprender de ello, por eso no es de extrañar que Google este apostando al aprendizaje profundo y realizan enormes inversiones. Lo interesante en Google, es que esta combinando las ideas de las redes neuronales con las del aprendizaje profundo y para ello ha contratado a varios expertos en las dos ramas los que tiene trabajando en la creación de un buscador inteligente, lo que justifica porque el desinterés de Google en la web semántica, evidentemente su proyecto es otro.

Actualmente Google está utilizando el aprendizaje profundo para mejorar el sistema de reconocimiento de voz en su sistema operativo Android. Ray Kurzweil, conocido por sus ideas una singularidad tecnológica y de la posibilidad de crear una mente superior a la humana, ha vaticinado el surgimiento en Google de un amigo cibernético basado en el aprendizaje profundo que escucha adentro en su conversación telefónica, lee sus mensajes de correo electrónico y realiza un seguimiento de todos tus movimientos para que pueda saber las cosas que usted quiere saber, incluso antes de preguntar.

El mundo está cambiando y la idea que teníamos de una inteligencia artificial surgida de los grandes centros de investigaciones y que luego comenzaría a aplicarse lentamente en las grandes empresas, hoy no se cumple y todo indica que las grandes transnacionales encabezadas por Google van a in construyendo y aplicando su propia inteligencia artificial. Ahora la pregunta es: ¿Qué consecuencias tendrá para la humanidad? De esto hablaremos en el próximo artículo.

0

En otros artículos he hablado sobre la singularidad tecnológica (la de Vinge, no confundirla con la de Kurzweil que tiene otras pretensiones) y de las superinteligencias que esta contempla.

Hoy quiero enfocar el problema desde una visión más realista, por lo que comenzaremos con la pregunta: ¿Surgirá una inteligencia superior a la humana?

Teníamos cuatro posibles superinteligencias (algunos le llaman inteligencias suprahumanas).

  • Superinteligencia artificial
  • Superinteligencia hibrida
  • Superinteligencia colectiva
  • Superinteligencia biológica

Comencemos por la artificial. ¿Estará el hombre dispuesto a construir una inteligencia no humana que lo supere? “Si no trabajamos en las tecnologías inteligentes alguien lo hará”. O sea que las necesidades del mercado y la competencia que esta genera, nos llevara inevitablemente a el desarrollo de inteligencias artificiales (IAs) superior a la humana. Y no hemos mencionado la carrera armamentista, que tampoco se detendrá.

La única preocupación de que estas ideas no se lleven a cabo, con la prontitud requerida, serian las acciones que puedan desplegar los llamados “luditas” o “bioluditas”. Que son aquellos que proponen la prohibición de aquellas tecnologías que puedan significar un riesgo para la humanidad. Sin dudas una IA superior a la humana es un peligro para los humanos, si aceptamos que vivimos en una sociedad basada en la competencia y en la lucha por el poder.

Otros afirman que las ventajas son tantas que vale la pena correr los riesgos, pero algunos piensan que nos adentraremos en una aventura cuyas consecuencias son impredecibles.

Una de las ventajas, que traeria el surgimiento de una superinteligencia artificial, seria la copia de la mente (recargar la mente en una computadora). De la que Hans Moravec es un defensor. Y destaca las siguientes:

  • Aumentar la velocidad de calculo
  • Extender la vida
  • Vivir en un espacio reducido; en una computadora
  • Viajar a la velocidad de la luz
  • Incrementar los conocimientos; podrían aumentar su memoria, agregar nuevos sentidos, etc.
  • Aprender y comunicarse directamente; comunicación directa mente a mente.

Aquí hay cierta confusión. ¿De qué estamos hablando? De un artefacto que se conecta al cerebro y es capaz de extraerle la mente al individuo o de reproducir la mente desarrollando sus programas (programar todos los estados mentales), por supuesto estos programas se irán introduciendo directamente en una computadora, lo que han estado haciendo durante años los investigadores de la IA, sin mucho éxito (al menos, no han cumplido con las expectativas). En este segundo caso estamos hablando de una copia de la mente (codificada en forma de algoritmos) que se ejecutaría en una computadora. En mi opinión no estamos hablando de la mente humana, en todo caso de un sistema inteligente que simula aspectos de la mente. El primer caso sigue, aun, perteneciendo a la ciencia ficción.

A la euforia de Moravec, su une una predicción, algo preocupante, de Nick Bostrom: La superinteligencia (SI) será quizás el último invento que la raza humana necesita hacer, ya que esta (luego) se ocupará de la civilización en todos sus aspectos. Como se cuestionara Bill Joy, el futuro no nos necesita.

Entre las críticas al surgimiento de una inteligencia artificial, está la de Roger Penrose quien establece diferencias entre el funcionamiento de un ordenador, que es capaz solamente de un razonamiento algorítmico basado en secuencias lógicas, y el funcionamiento del cerebro humano, que es capaz de estar abierto a la improvisación y a lo inesperado, a lo caótico, es decir, a lo creativo.

Los investigadores de IA, siguen creyendo que, aunque pueda tomar décadas para aclarar todos los detalles, no hay nada adicional subyacente en el pensamiento: es solo tratamiento de la información. Y siguen aferrados a la metáfora de que el cerebro es equivalente al hardware de una computadora, por lo que es totalmente factible transferir la mente de un soporte (el cerebro) a otro (la maquina).

En cambio, los expertos en computación tradicional no pueden creer que las computadoras relativamente simples, en las que se ejecutan sus programas, se almacenan sus bases de datos, sus gráficos; que requiere de un sistema operativo y opera sobre algoritmos numéricos; puedan ser también el sustrato donde se puedan ejecutar los complejos procesos de la mente humana.

 

Filed under IA by on . Comment#