alejandromadruga

Licenciado en Cibernética Matemática por la Universidad de la Habana, profesor de Inteligencia Artificial y Máster en Bioética. Trabaja como especialista en Ciencias Informáticas en Infomed. Investigador, escritor y divulgador de la ciencia. Diplomado en Comercio Exterior.
Trabaja en el área de la Inteligencia Artificial desde 1985, donde ha desarrollado varias aplicaciones destacándose el sistema experto para la selección de soluciones tecnológicas, premio nacional de las BTJ.
Fundador del taller literario Oscar Hurtado y de la revista i+Real en la que publicó varios de sus cuentos de Ciencia ficción. Se destaca preferentemente en el ensayo y la divulgación científica, pero su obra incluye la narrativa de ciencia ficción y la poesía. Sus narraciones “Casa muerta” y “Cazadores de imágenes” han sido muy referenciadas en Internet.
Ha impartido cursos sobre inteligencia artificial, sistemas expertos y programación en prolog para las empresas del Frente de Proyectos. Ha dado conferencias en eventos nacionales e internacionales y ha sido miembro de tribunales para seleccionar los trabajos en la temática de inteligencia artificial.
Publicaciones:

“¿Posthumanidad o posthumanismo?”, (ensayo) colección Pensar en Cuba, Modernidad Posmodernidad, Editorial Ciencias Sociales. 1997
“Hablemos de Cibernética”. Revista Juventud Técnica No. 274 año 1996.
“¿Serán nuestros nietos robots?” Revista Juventud Técnica No.275 año 1996.
“La Inteligencia Artificial. Una luz en la naturaleza” Revista GIGA No. 3 año 1998
“Ley robot”. (cuento) Revista Juventud Técnica No.274 año 1996
“Casa Muerta”. (cuento) Antología de ciencia ficción cubana: Polvo en el Viento, (Argentina 1999).
“Inteligencia Artificial, el futuro del hombre”, Editorial Amazon. 2013
“Zaida, cuentos de ciencia ficción”, Editorial Amazon. 2013
“Cosmovisión poética”, Editorial Amazon. 2013
“Crisis en el siglo XXI: Desafíos contemporáneos”, Editorial Amazon. 2014

0

En sus inicios la actividad de la computadora estuvo limitada exclusivamente al cálculo numérico. Si bien es cierto que las
máquinas fueron construidas principalmente para realizar operaciones aritméticas, ellas son capaces de ejecutar tareas no numéricas, como resolver problemas “lógicos”.

En realidad la computadora está dotada para procesar “símbolos”, el que estos fuesen utilizados como numéricos no fue mas que un hecho circunstancial.

Los primeros en comprender esta idea fueron los investigadores de la Inteligencia Artificial, especialmente el trío NeweLL, Show y Simon con su “logic theorist”. Este programa podía demostrar teoremas del cálculo proposicional y sentó las bases sobre las posibilidades de las computadoras para la manipulación de símbolos (no numéricos) y el tratamiento de estructuras de datos en forma de <>.

Siguiendo estas ideas John Mac Carthy a principio de los años 60 desarrollo el lenguaje LISP, primer lenguaje que rompió con los esquemas convencionales de programación. El LISP utiliza el tratamiento simbólico de la información representadas por listas, es el primer lenguaje que no hace diferenciación entre datos e instrucciones y se le considera el pionero de los lenguajes funcionales por su método de trabajo, similar a la resolución de funciones matemáticas.

El LISP por sus características de procesar símbolos ha sido utilizado durante muchos años como el lenguaje exclusivo de la Inteligencia Artificial.

Aunque la máquina está capacitada para manipular símbolos, esto no lo realiza de forma eficiente, de ahí que el LISP tenga que ser un lenguaje con interprete y surgiera la necesidad de máquinas LISP. Sin embargo no toda la responsabilidad la tiene la máquina, la preparación de las estructuras de datos para los cálculos no numéricos, se hace muy engorrosa y compleja.

Para los problemas no numéricos tales como; el ajedrez, la solución de teoremas, el diagnostico médico, los juegos, etc. La representación de la entrada, entiéndase las condiciones iniciales, requieren más que de datos, de una descripción del problema en si al igual que su programación, la cual carece de un algoritmo definido y se necesita la utilización de métodos de búsqueda heurísticos, o lo que es lo mismo una estrategia a seguir ante las posibles bifurcaciones que se irán presentando, o sea despreciar los caminos pocos fértiles.

Para muchos investigadores la solución de los problemas no numéricos consist’,ia en encontrar una heurística eficiente. Lo cual dío lugar a una gran diversidad de métodos heurísticos.

No fue hasta el surgimiento de los Sistemas Expertos que la representación del conocimiento, adquirió la importancia que merecía. Los Sistemas Expertos tienen como característica fundamental la separación de los conocimientos que le son necesarios (Base de Conocimiento) y el programa que permite manipular estos conocimientos (Máquina de Inferencia). Además de contar con los datos de partida que permiten la solución del problema planteado (Memoria de Trabajo).

En las aplicaciones convencionales desarrolladas en lenguajes imperativos de tipo FORTRAN, BASIC, PASCAL, etc. Los conocimientos están mezclados en el programa, donde los datos y las instrucciones reciben un tratamiento separado, lo cual obliga a procesar un orden de ejecución detallado de las acciones, este método recibe el nombre de procedural. En las aplicaciones no convencionales, tales como los Sistemas Expertos, (los cuales se desarrollan fundamentalmente, en lenguajes funcionales como LISP o en Programación Lógica como PROLOG).

Los conocimientos se dan en forma declarativa, sin indicar el modo de empleo, ni donde, ni cuando utilizarlos.

Los conocimientos son representados en forma de regla del tipo antecedente consecuente. donde en el antecedente viene la descripción de un hecho y en el consecuente la acción a ejecutar la cual produce nuevos hechos (cambios en la memoria de trabajo). Por su puesto que es más cómodo proporcionar a un sistema conocimientos en forma declarativa, ya que podemos dárselo en cualquier momento, suprimirlos o modificarlos con facilidad.

En los comienzos de los años 70 el francés Alain Colmenuer desarrolló el lenguaje PROLOG que también permite el desarrollo de aplicaciones en forma declarativa.

En general el PROLOG es un demostrador automático de problema, el cual utiliza una Base de Conocimientos en forma de reglas de inferencia deductivas (cláusulas de Horn), es decir sus reglas tienen como consecuente una única acción y la inferencias obte¬nidas son estrictamente lógicas (verdaderas o falsas), aunque puede parecer una limitación, esto no es totalmente justo, ya que PROLOG permite programar mecanismos inferenciales con lógica probabilísticas, dado que se trata de búsquedas en árboles con acumulación de evidencias.

El PROLOG como lenguaje surgido del cálculo de predicados, tomó las siguientes ideas de la lógica para su ejecución.
1) Un conjunto de axiomas o hechos.
2) Reglas de inferencias las cuales se resuelven por resolución y unificación.
3) El objetivo a demostrar, que serán las condiciones a unificar con las reglas.

También tomó del LISP el tratamiento de las listas para la repre¬sentación de estructuras complejas. Aunque el PROLOG tuvo su ori¬gen en la lógica matemática no fue una transposición exacta, y esta ligada a las discusiones que sostienen desde hace años los principales investigadores de la Inteligencia Artificial, los cuales están divididos en dos grandes grupos, de una parte Minsky quien propone estudiar los mecanismos del pensamiento humano y luego simularlo en la computadora.

Lo más importante para Minsky son los conceptos, o sea la inter¬pretación que se le puede dar a cada palabra en dependencia de un contexto dado.

El otro grupo encabezado por Mac Carthy (autor del LISP), afirman que la lógica matemática es el elemento característico para la representación del razonamiento y su implantación en la computadora, este grupo centra su atención en la formalización y en la estructura de los conocimientos más que en el sentido de los mismos.

La lógica desde la antigüedad se concibió como el método de descubrir las leyes del pensamiento, pero estas leyes siempre han estado restringidas al pensamiento científico y muy especialmente el matemático, quedando fuera el sentido común. Esta deficiencia es admitida por los defensores de la lógica, pero ellos consideran que la lógica es la única senda posible para desarrollar programas capaces de mostrar inteligencia.

Siguiendo los principios de la lógica de predicados, como ya se dijo, la programación lógica se construye sobre reglas de inferencia del tipo conclusión condiciones, algunas utilizadas como axiomas, hechos que no requieren demostración y otros como teoremas, hechos o conclusión que necesitan de condiciones a cumplirse, además del objetivo a demostrar que es quién representa el problema a resolver y desencadena la ejecución de las reglas, para su ejecución utiliza el modus ponens [(A => B),A] => B.

Analicemos el clásico ejemplo sobre Sócrates.

Todos los hombres son mortales
Sócrates es hombre

Sócrates es mortal

Su representación lógica será

Para todo X hombre(X) => mortal(X)
Existe Sócrates y hombre(Sócrates)

entonces mortal(Sócrates)

En PROLOG sería.

hombre(Sócrates) < —
mortal(x) < — hombre(x)
? <– mortal(Sócrates)

Donde hombre(Sócrates) es un axioma, regla que carece de condiciones, mortal(x) es un teorema, regla con la condición hombre (x) y mortal (Sócrates) es el objetivo a demostrar.

Ante la pregunta mortal (Sócrates) se buscará una regla que cumpla con la conclusión mortal, PROLOG tomará la primera regla, si esta no se cumple tomará otra regla. Cuando la regla se cumpla se unifica con el objetivo a demostrar (mortal) y se sustituye la variable “x” por Sócrates y se pasa a ejecutar las condiciones, en caso que alguna de las condiciones no se cumpla se da marcha atrás y se selecciona una nueva regla que unifique con hombre. En nuestro ejemplo la regla mortal está compuesta por una sola condición hombre (x) y para que se cumpla basta que exista una regla que tenga como conclusión a hombre (Sócrates),o sea “x” igual a Sócrates, si la encuentra se unifica con ella.

Como hombre (Sócrates) no tiene condiciones, es un axioma, cumple la condición hombre y como no existen más condiciones a cumplir, entonces se cumple la regla mortal (Sócrates), con lo que, se demostró el objetivo: Sócrates es mortal.

Una de las grandes ventajas del PROLOG es su potencia para con pocas reglas obtenerse variadas interpretaciones, a diferencia de los lenguajes imperativos donde cada hecho requiere de un procedimiento o lo que es lo mismo secuencias rígidas de pasos para su ejecución.

En PROLOG basta declarar algunas reglas que representen a los hechos.

Por ejemplo si tenemos las reglas:

Padre (Juan, Luis) <–

Padre (Luis, Jose) <–

Padre (Pedro, Luis) <–

Notar que todas las reglas carecen de condiciones (son axiomas).

Con estas tres reglas se puede buscar un abuelo o un hermano o un tío basta plantear como objetivos a demostrar

? <– Padre (x,y) Padre (y,z)

y encontraremos un abuelo en “x”

o ? <– Padre (x,y) Padre (x,z)

Donde “y” y “z” serán hermanos

o también ? <– Padre (x,y) Padre (x,z) Padre (y,s)

y obtendremos en “z” un tío

Observen que el objetivo puede ser una condición como en el caso de mortal (Sócrates) o varias condiciones.

Analicemos el objetivo abuelo. Para solucionarlo la máquina de inferencia tendrá que localizar un padre (x,y) entre las reglas padres y a su vez encontrar otra regla que tenga como padre a “y” de “z”. Las cuales serían padre Juan de Luis y padre Luis de José, lo cual implica que Juan es el abuelo de José.

También es posible definir una regla abuelo como sigue:

Abuelo (x,y) < — Padre (x,z) Padre (y,z)

y entonces la pregunta se reduciría a

? <– Abuelo (x,y)

El resultado a imprimir sería Juan, José.

Otra posibilidad sería saber de quién es abuelo Juan.

? <– Abuelo (Juan,x)

La regla anterior “Abuelo” está limitada a Abuelo por parte de padre, en PROLOG basta modificar la regla Abuelo y agregarlas reglas progenitor como sigue:

Abuelo (x,y) < — Padre (x,z) Progenitor (y,z)

Progenitor (x,y) <– Padre (x,y)

Progenitor (x,y) <– Madre (x,y)

De igual forma se puede agregar las reglas Tío, Hermano, Sobrino, Hijo etc., sin necesidad de alterar el programa.

Si quisiéramos saber donde trabaja Juan y quienes trabajan en computación, en lenguajes de tipo Pascal, cada caso sería independiente. En PROLOG basta definir las reglas trabaja (x,y), donde “x” es el nombre (Juan) y “y” el lugar (computación), solo se necesitarán dos preguntas trabaja (Juan,x) para el primer caso o trabaja (x, computación) para el segundo caso.

PROLOG es un lenguaje que se encuentra en sus inicios, para muchos su desarrollo es equivalente a las primeras versiones de FORTRAN. Como lenguaje de programación lógica debe aún recorrer un largo camino evolutivo, pero lo que nadie duda es que PROLOG, hasta la fecha actual, es el lenguaje que más se acerca a la forma de pensar del hombre y no es por gusto que los japoneses lo escogieron como lenguaje núcleo para su proyecto de la quinta generación de computadoras.

0

Con la cibernética el concepto de máquina ha ido cambiando a lo largo de los años. Luego de aquellas primeras máquinas mecánicas donde se pretendía reemplazar completa o parcialmente el trabajo físico del hombre y de los animales, han seguido otras, cuyo fin, es la mecanización del trabajo intelectual. Hoy las máquinas realizan funciones que antes se consideraban propias del intelecto humano.

Peor quizás el aporte más importante de la cibernética fue fundamentase sobre las analogías, de ahí su característica de ciencia exogena, la cual esta dada por la interrelación con otras ramas del conocimiento y su asimilación, pero sobre todo por la propuesta de teorías generales que explicasen fenómenos propios de las otras ciencias. Por ejemplo la cibernética ha preferido basarse en la teoría de los modelos, haciendo mas hincapié en la representación funcional de los organismos que en su estructura, en el sentido vertical o jerárquico.. Esto unido a la búsqueda de analogías entro los fenómenos y no a la reducción de un fenómeno en otro (como posteriormente hizo la inteligencia artificial), la llevo a convertirse en una guía científica para la comprensión del mundo desde una visión más general y abierta.

De ahí que cuando los cibernéticos intentaban modelar la estructura de un objeto, mas que la estructura lo que tenían en mente era la reproducción de su funcionamiento sobre otra estructura y se aspiraba a que ese modelo u objeto artificial exhibiera una conducta similar a la del original. Digo similar porque en realidad la conducta mostrada por los modelos siempre estará supeditada a la interpretación del investigador..

Otro de los aportes de la cibernética fue la utilización del aparato matemático (su creador Wiener, fue un destacado matemático), que hasta ese momento era de uso casi exclusivo de la física, como la cibernética era a su vez una disciplina común a varios sectores de investigación, trajo como consecuencia que ramas como la psicología, la sociología y la biología pudieran de alguna manera formalizar sus teorías y fue mas lejos, al proporcionarles métodos de experimentación a través de la creación de máquinas que permitieran estudiar conductas, reacciones, reflejos, formas de aprendizajes…

Entre las investigaciones de los cibernéticos estaba el estudio del reflejo condicionado, un ejemplo de esto fueron las tortugas de Grey Walter, las cuales eran capaces de orientarse por la luz y luego de repetirle un sonido junto a la luz estas eran capaces de orientarse por el sonido.

Los ratones de Shannon eran capaces de aprender a orientarse a través de un laberinto y encontrar la salida, aquí estamos en presencia de mecanismos de búsquedas heurísticas, que luego se convertirían en la funtamentacion de los métodos de búsqueda de la inteligencia artificial.

En nuestros días, se mueven libremente, por los la laboratorios del MIT, una serie de ciberanimalitos, que evaden exitosamente los objetos, cuya idea esta basada en muchos de los métodos cibernéticos.

Ya desde épocas tempranas la Cibernética se cuestiono muchas de las funciones de la mente humana y sobre todo de los mecanismos del aprendizaje y su simulación en las máquinas. Uno de estos mecanismos fue el método de prueba y error dando inicio a las ideas heurísticas la cual se convirtió en el fundamento de la futura inteligencia artificial y de su aplicación en los sistemas expertos siendo significativas las ideas sobre la resolución de problemas.

En la resolución de problemas obtuvieron conclusiones interesantes como la siguiente: la resolución de problemas es un mecanismo de autorregulación donde el éxito da como resultado la interrupción de toda actividad ulterior mientras el fracaso o éxito incompleto conduce a nuevos intentos de encontrar una solución enviando (realimentando) la información acerca de error a la parte del mecanismo que pone en marcha la actividad (el efector). Como consecuencia de estas investigaciones se enfoco el aprendizaje a través de los mecanismos de prueba y error del cual se dedujo que el proceso de adquirir un hábito, se desarrolla de forma gradual una sucesión de pasos correctos, mientras las acciones que no concuerdan con esa sucesión resultan gradualmente eliminadas. Los cibernéticos como fieles representantes de la naturaleza aceptaron la idea de que ningún aprendizaje surgido por el método de prueba y error comienza mientras no exista una necesidad insatisfecha.

Otros de los temas de nuestro tiempo, que ha suscitado más polémica entre los investigadores de la IA, es la intencionalidad. Tema también tratado por la cibernética, donde se planteaba que la intencionalidad era un rasgo de los organismos vivientes visto como una tendencia a un objetivo, el homeostato de Ashby es un ejemplo de intencionalidad cibernética.

Para los cibernéticos la intencionalidad no es un fenómeno vital enfocado como objetivos humanos, ligados a las sensaciones, sino como una retroalimentación negativa que busca el equilibrio del sistema a toda costa, siendo la búsqueda del equilibrio a través de la realimentación, lo que hace que un sistema tenga intencionalidad y como todos los fenómenos son sistemas en equilibrio siempre se cumple, tomen como ejemplo al sistema tierra como un sistema en equilibrio cuya intencionalidad es perpetuarse ( a pesar de los esfuerzos del hombre por destruirlo).

Un interesante enfoque le dieron los cibernéticos al concepto de sistemas cerrados y sistemas abiertos de donde se desprendieron dos interpretaciones significativas:
1) En los organismos vivos el estado final se puede alcanzar desde diferentes condiciones iniciales en formas diferentes. Actualmente conocido como método de exploración heurística en contraposición al método al algorítmico.
2) Los sistemas abiertos se comportan como si conocieran sus estados finales futuros. Tema central en la plantación, ya que necesitas saber o predecir que ira sucediendo según se avance. Ejemplo el ajedrez, es necesario analizar varias jugadas ante de decidirse por una. Los sistemas de pronósticos.

Este ultimo ha dado lugar a los métodos de encadenamiento de los objetivos a los hechos, resolver el problema partiendo del final. Siempre he tenido la impresión de los sueños primero se conciben partiendo desde el final hasta el principio, hay una intención final (alguna preocupación, dolor físico, deseo) que desencadena las acciones hasta los hechos iniciales y luego se reproduce el sueño como tal siguiendo los patrones de ese guión, aunque no de forma exacta, pueden introducirse cambios ante intromisiones externas, como ruidos, luces, olores, etc.

Algunos llegan a interpretaciones religiosas afirmando que ese es el destino que todos tenemos escrito.

Libro recomendado:
Inteligencia Artificial, el futuro del hombre

0

Son muchos los que desean la caída de Microsoft, y no es extraño que surjan alianzas en su contra. Sus tácticas monopolistas han despertado la preocupación en más de una empresa. No obstante la “bestia de Redmond”, como algunos le llaman sigue ampliando su imperio y ningún mercado escapa a su ambición de poder, que parece no tener limites. Todo lo relacionado con la industria del software, tarde o temprano tiene que caer bajo su dominio, sino, recuerden a NetScape. Ahora la pregunta es: ¿Podrá Microsoft mantener su imperio? ¿Cómo se esta preparando para el futuro? Y en especial, que es el interes de este artículo: ¿Que líneas esta desarrollando en el área de la Inteligencia Artificial?

Acciones que esta llevando a cabo Microsoft para mantener su hegemonía:

• Nuevas versiones de Windows cada vez más profesionales.
• Plataforma Microsoft .NET diseñada para la construcción de aplicaciones basadas en el Web, con la cual se espera competir con la plataforma J2EE de Sun, la cual incluye a poderosos aliados entre ellos la mítica IBM.
• Sistema operativo Microsoft CE, para las PDAs.
• Lograr un portal que genere ganancias, están tratando de adquirir a Google.

Todo lo anterior apunta a la generalización de su sistema operativo Windows y a la filosofía de las PCs. Aunque para muchos los días del Windows y de las PCs están al concluir: la tecnología móvil, los equipos inteligentes, el Linux y la estrategia de los software libres, la NOISE: alianza entre NetScape, Oracle, IBM, Sun y otros aliados (Each other), así como una filosofía de trabajo cada vez mas orientada a la red; puedan dar al traste con el enfoque Microsoft.

Pero las angustias de Microsoft no terminan aquí, la necesidad de maquinas cada vez mas amigables y fáciles de utilizar, que permiten una asimilación rápida con una eficaz gestión del conocimiento. Hace que Bill, quien no invierte en nada que no de ganancias, dedique parte de sus energías a la investigación de la Inteligencia Artificial, en la cual IBM es un pionero y le lleva ampliamente la delantera (IBM será tema de otro articulo).

A diferencia de los primeros años donde la Inteligencia Artificial (IA) era estudiada por un grupo reducido de investigadores, actualmente es un área de interés para muchas empresas que aspiran a mantenerse en los primeros planos de la economía mundial y es una de las líneas priorizadas por Microsoft, donde existen varios grupos de investigadores dedicados a los diferentes campos de la IA y al desarrollo de múltiples proyectos muchos de ellos, ya se están utilizando con éxito en los productos de Microsoft.

Veamos en las líneas que esta trabajando la Microsoft Research.

1. Sistemas adaptados e interacción.
• Desarrollo de interfaces inteligentes que permitan mejorar la interacción hombre maquina, tales como interfaces 3D, nuevas técnicas de navegación, etc.
• Asimilación y filtrado de los gustos del usuario, cual es su perfil; darle apoyo en las búsquedas, hacerles recomendaciones y sobre todo muchas ofertas
• Sistemas conversacionales: el gran sueño de la IA que se puede conversar libremente con una computadora, se acabo el teclado, adiós al mouse. Usted solo tiene que pararse frente a la maquina y decirle lo que desea.
• Sistemas y redes: Detectar cuellos de botella y optimizar el funcionamiento de las aplicaciones y los sistemas operativos.
• Diagnostico de problemas: Detección y solución de problemas, depuración de software y fallos de hardware.
Dado el enfoque centralizado de Microsoft y su afán de incluirlo todo dentro del sistema operativo Windows, así como su orientación a las PCs (paradigma aun vigente), limita el alcance de este tema y no lo enfoca a una plataforma abierta basada en la movilidad y la interacción entre usuarios y agentes.

2. MS Agent
• Se pretende a través de un primer Kit. Visualizar aplicaciones desarrolladas con esa tecnología e instalar los componentes necesarios y con un segundo Kit (Agent SDK) proporcionar las API y utilidades necesarias para que cualquier persona pueda desarrollar interfaces basadas en Agent.
Este tema esta muy avanzado y ya existen estándares como FIPA, OMG, KSE, etc. Y metodologías para el desarrollo de sistemas multiagentes, tales como Zeus, Ingenias, Message, etc. Que seria mas fácil valerse de estos avances y no re-inventarlo todo de nuevo a lo Microsoft.

3. Aprendizaje computacional.
• Análisis y minería de datos: En nuestros días cada vez se hace mas difícil procesar todo el volumen de información de que disponemos, información que puede ser muy valiosa pero que en muchos casos se pierde en enormes bases de datos a las que resulta muy difícil acceder, y si tenemos en cuenta que los datos están en constante crecimiento la tarea resulta imposible. La minería de datos trata de dar solución al problema de cómo llegar a la información que necesitamos, como extraer esa información valiosa de esa enorme montaña de datos, para ello se ha tenido que recurrir a técnicas de IA, e incluso crear nuevas técnicas, con el fin de darle una solución satisfactoria a este problema. La minería de datos también permite predecir futuras tendencias y comportamientos en los negocios y tomar decisiones preactivas dado el conocimiento que se obtiene. Como se puede ver es un tema vigente y de gran importancia al cual muchos investigadores dedican su tiempo, entre ellos Microsoft.
• Clasificación y agrupación de textos para la gestión del conocimiento lo que permite agregar o sugerir una categoría para documentos basado en su contenido. Se trata de realizar búsquedas inteligentes sobre todo en Internet. Existe el proyecto de la Web semántica, que es tratar de dotar de inteligencia a Internet, también llamado “cerebro global”. Que no es otra cosa que organizar el caos de información reinante en Internet. Para ello primero hace falta organizar el conocimiento dentro de la red a través de enlaces e hipervinculos de ahí el nombre de cerebro global y se aspira a que en un futuro la red sea capaz de autoorganizarse y de aprender de la interacción con los usuarios.
• Desarrollo de métodos de aprendizaje y procesamiento del lenguaje natural. Uno de los grande problema de la IA es que las computadoras no tiene conexión con el mundo real, y dependen de que los humanos le introduzcan la información, cuando lo ideal es que la maquina aprenda directamente del entorno. Hoy se están desarrollando métodos para el aprendizaje directo tanto para los robots que actúan en entornos reales como para los agentes que actúan en entornos virtuales.
• Desarrollo de productos y utilidades de acuerdo a los gustos y preferencias del usuario.
• Reconocimiento de voz y reconocimiento de caracteres. Ya existen software a los que se les da un texto y la maquina lo trasmite verbalmente (lo lee), otros permiten que se escriba directamente sobre la pantalla (de forma manual) como si fuera una agenda y también los que accionan ante la voz humana y ejecutan los comandos que se le indiquen. Las versiones recientes de Windows han venido presentando algunas de estas ventajas.

Estas son a grandes rasgos algunas de las investigaciones en el campo de la IA que se están llevando a cabo por Microsoft. El problema es si serán suficientes para mantener su predominio y si el paradigma actual no esta dando lugar a otro mas abierto, libre e inteligente, donde el concepto de un producto acabado de software se pierda ante las múltiples plataformas pobladas de agentes inteligentes y ejecutadas sobre pequeños objetos también inteligentes y totalmente portables.

.

17

Ray Kurzweil, quien con su libro: “La era de las maquinas espirituales” ha conmocionado al mundo científico con sus profecías. Y que ha diferencias de los otros que eran científicos teóricos o experimentales (quiero decir que no desarrollan aplicaciones practicas o comerciales) y en muchos casos escritores de ciencia ficción. Kurzweil es un científico eminentemente practico y ha sido el creador de algunos ingenios como el Reconocimiento Óptico de Caracteres (OCR; el actual programa “TextBridge” de Xerox está basado en su patente), dispositivos para interfaces informáticas dirigidas a ciegos y sordos, así como programas de composición musical como el Kurzweil250. Además de haber recibido ocho doctorados honoris causa, el puesto de asesor de dos presidentes y el galardón al Mejor Inventor del Año (Best Inventor Award, 1988).

Ahora veamos en que consisten sus profecías:

2009
Un ordenador doméstico realiza un billón de cálculos por segundo. Prácticamente, no se utilizan cables, pese a que siguen existiendo teclados. El aspecto de los PC de alta resolución ha variado. Ahora se encuentran en todas partes, pueden estar insertados en la ropa, en joyas, o tener el tamaño de un libro de escaso grosor. Los textos se generan habitualmente utilizando reconocimiento de lenguaje natural. Las transacciones comerciales rutinarias se realizan en su mayor parte entre una personalidad humana y otra virtual. A menudo la personalidad virtual tiene apariencia humana. Los teléfono-traductores son utilizados comúnmente en muchos pares de lenguas. Los tratamientos de bioingeniería contra el cáncer y las enfermedades de corazón han reducido la mortalidad por esas causas. El movimiento Neo-luddita* está en expansión.

2019
El ordenador doméstico (1.000$) ha alcanzado la capacidad de computación de un cerebro humano. Ahora los ordenadores son invisibles en su mayor parte. Están en las paredes, en las mesas, sillas, en la ropa y joyas, insertados en el cuerpo. Los dispositivos de Realidad Virtual (VR) en tres dimensiones se utilizan habitualmente en la comunicación. La mayor parte de la interacción con las máquinas se produce a través de gestos o diálogo en lenguaje natural. Comienza a aplicarse la nanoingeniería (ingenios de una milmillonésima de metro, contexto molecular). Muchas vías rodadas de comunicación tienen instalados sistemas de conducción automática de vehículos. Las personas comienzan a establecer relaciones con personalidades virtuales, utilizando a éstas de compañeros, profesores, cuidadores amantes. Los artistas virtuales aparecen en todas las ramas del arte.

2029
Un sistema informático de 1.000 dólares, (el equivalente a uno de los antiguos ordenadores domésticos) posee la capacidad de computación/cálculo de mil cerebros humanos (2*1019 cálculos/segundo – cps). Implantes biológicos para los ojos y oídos se utilizan para establecer conexión directa con la red informática mundial. Sin interfaces. De la retina a la Red. Se han perfeccionado redes neuronales de banda ancha para conectarlas directamente al cerebro humano. Se van haciendo disponibles implantes neuronales para mejorar la percepción visual y auditiva, la memoria, el razonamiento y el cálculo humanos. Los agentes automáticos comienzan a aprender por su cuenta, y hay una cierta cantidad de conocimiento que está siendo creado sin intervención humana. La inmensa mayoría de las comunicaciones no se efectúa entre personas, sino entre una persona y una máquina. No se puede distinguir claramente entre el mundo humano y el de las máquinas. Prácticamente, no existe trabajo humano en la industria, la agricultura o el transporte. Las profesiones más extendidas son las educativas. Una proporción creciente de tiempo de trabajo se dedica a la educación y el aprendizaje. Las necesidades vitales básicas están cubiertas para la gran mayoría de la humanidad. La esperanza de vida continua incrementándose, y ahora está alrededor de los 120 años. Una rama de la psicología comienza a investigar las consecuencias de este aumento del periodo vital. Las drogas personalizadas no producen secuelas. Se diseñan en función de cada DNA específico, que hace tiempo que ha sido descodificado por completo. Comienzan las reivindicaciones sobre derechos legales de las computadoras, y existe un debate sobre lo que constituye “ser humano”. Las máquinas afirman ser conscientes. Nadie se escandaliza con ello.

2049
La utilización habitual de alimentos nanoproducidos, con la correcta composición nutricional y el mismo sabor y textura que los alimentos producidos orgánicamente, conduce a una disponibilidad de alimentos que ya no se ve afectada por los limitados recursos naturales, el clima, o el deterioro por oxidación. Enjambres de nanorobots son capaces de crear proyecciones visual-tactil-auditivas de personas y objetos en el mundo físico. Ya no se trata del mundo físico y de la realidad virtual: hay varias capas que se entrecruzan. Se puede actuar sobre varias al mismo tiempo (ciertamente confuso) o adoptando varias personalidades en cada capa de realidad. Las computadoras se diseñan por completo a sí mismas: esto produce una mayor aceleración en el perfeccionamiento de la inteligencia digital.

2099
El pensamiento humano y la inteligencia artificial se han fundido, ciberorganismos controlan las sociedades. Ya no existe distinción entre seres humanos y ordenadores. Muchas entidades conscientes no poseen una presencia física permanente. Algunas inteligencias afirman ser humanas, pese a que sus cerebros no se componen de células de carbono, sino de sus equivalentes fotónicos y electrónicos. Una legislación eficaz protege a los MOSH, seres humanos (con neuronas de carbono), desprovistos de implantes neuronales. Dichos humanos primitivos son incapaces de participar plenamente en diálogos y procesos entre humanos implantados, humanos mejorados. La mayor parte de la información se transmite utilizando protocolos standard de conocimiento asimilado, esto es, protocolos que hacen que la información sea comprendida instantáneamente. Los idiomas como el inglés y el español aún se utilizan (especialmente entre los MOSH), pero forman parte de un conjunto de tradiciones y folklores a los que se exige respeto y protección por los legisladores. La picoingeniería (informática en el nivel del picometro: una billonésima de metro, entorno de las partículas subatómicas) posee aplicaciones cotidianas. Se encuentra en desarrollo la femtoingeniería, (escala de milbillonésima de metro, nivel dentro del quark.) La capacidad de computación o cálculo se estima (utilizando una variante de la Ley de Moore, cuya vigencia se estima posible hasta el 2018), de forma global, al estar accesible en la red para cualquier entidad que la necesite, alcanzando una suma total de 1055 cps. Esto sin contar con la informática cuántica*, que está generalmente extendida, y cuya potencia no puede estimarse con los mismos métodos, (el equivalente a 10355 cps). En este contexto, pierden sentido conceptos como esperanza de vida. La mortalidad no es un problema que pueda ser considerado del modo en que se hacía un siglo antes. Antes bien, aparece un movimiento civil denominado “destruye-todas-las-copias”. Cualquier entidad inteligente estaría obligada, antes de terminar -voluntariamente- con todos sus “archivos”, a realizar una serie de copias establecidas por ley. El movimiento “destruye-todas-las-copias” reclama la posibilidad de desaparecer destruyendo todas las copias de la mente o inteligencia que deseen terminarse. Es la inmortalidad lo que comienza a ser un problema…

0

Fue en el año 1948 cuando apareció el libro “La cibernética o el control y la comunicación entre los animales y las maquinas” del matemático Norbert Wiener y con él, el inicio de una nueva ciencia: La cibernética. Desde entonces hasta la fecha han transcurrido 60 años. ¿Qué ha sucedido durante este tiempo? ¿Ha muerto la cibernética?

Antes de 1948, los científicos tenían muy bien definidas sus áreas de investigación: los psicólogos conductistas poseían laboratorios donde experimentaban con monos, ratas conejos, etc. Con el fin de formular teorías que explicaran el comportamiento humano; los neurofisiólogos eran algo mas radicales y les abrían el cráneo a los animalitos y esperaban descubrir las leyes del pensamiento; tampoco los psicoanalistas se que daban atrás y trataban de hallar en el subconsciente del paciente la ratificación de sus teorías sobre la mente. Todos estaban inmersos en sus áreas sin importarle mucho que sucedía en las otras ciencias.

Ya en 1946 se había construido la primera computadora llamada ENIAC, que aunque resulto un fracaso dio origen a futuras computadoras y al liderazgo de IBM, por su parte John Von Neumann había propuesta la arquitectura de las computadoras tal como se conoce en nuestros días y otro de los pioneros de la Cibernética Claude Shannon había definido los conceptos matemáticos de la teoría de la comunicación. El panorama estaba listo para las nuevas ideas.

La Cibernética fue el primer intento generalizador de alcanzar el progreso por medio de la automatización y aunque nunca se convirtió en una ciencia como tal debido a su carácter exógeno, sentó las bases del enfoque “sistémico” y de la teoría moderna de la información. El método cibernético se basaba en la búsqueda de leyes generales que permitieran hallar la analogía entre todas las ciencias por disímiles que fueran.

Podemos decir que es un movimiento INTEGRACIONISTA que lleva a cabo una apertura hacia todos los campos del saber a través de una nueva visión conciliadora, surgiendo nuevas definiciones y novedosos enfoques tales como: retroalimentación, teoría de sistemas, control, información. Todo esto trae un despegue de muchas ciencias, en especial, la electrónica, la matemática discreta o finita, la computación, la biología, la psicología entre otras.

El método cibernético se baso en un intento de buscar la analogía entre todas las ciencias y para ello investigo la relación que existía entre los animales y las maquinas siendo la retroalimentación uno de los descubrimientos mas importantes, la cual esta presente en todos los sistemas orgánicos, incluyendo el sistema nervios y en todos los mecanismo que requieran de control.

1

Desde que Alan Turing formulo su hipótesis de que una máquina se podía considerar inteligente si era capaz de mantener un dialogo, desde cuartos diferentes, sin que el humano notara diferencia alguna. O sea la persona quedaría convencida de que estaba conversando con otra persona. Para Turing cuando se lograra eso, estábamos hablando de una máquina inteligente y esto para muchos investigadores significaba el haber logrado la ansiada inteligencia artificial.

El primer programa desarrollado dentro de esa línea fue Eliza de Joseph Weizenbaum. El cual era capaz de mantener un dialogo bastante creíble dentro del tema de la psiquiatría (el programa hacia preguntas al paciente), no se sorprendan si les digo que muchas personas fueron a consultarse con el programa. Desde entonces ha sucedido una explosión de programas que conversan con los humanos, los hoy denominados chatbot, que no son mas que programas que pretenden simular una conversación a lo Eliza, aunque la mayoria quedan bastante lejos del mítico Eliza.

Muchos de estos chatbot son programas que están en un sitio Web y te permiten tener un dialogo con ellos en la Web. Otros los tienes que descargar e instalarlos en tu maquina.

Como les había prometido, hoy veremos una de las páginas más en esapañol más interesante sobre el tema de los chatbot: http://iabot.iespana.es/

La página incluye:
– Definición de la inteligencia artificial.
– Chatbot. Aquí trae varios programas con los cuales podrá conversar directamente desde Internet o descargar.
– Chatbot de la web. Este el chatbot del sitio (Metachip) que te permite conversar con el. Pruébenlo.
– Vida artificial. Permite descargar juegos sobre el tema.
Después vienen otras secciones mas que no detallaré, véanla ustedes por si mismo

1

“Este universo es tan grande. Las posibilidades deben ser infinitamente más grande que cualesquiera que podamos imaginarnos por nosotros mismos. Empujar las cosas en la direccion de un aumento de las posibilidades parece ser, lejos, el uso más productivo de mi tiempo. Y ese es mi propósito aquí”.

Hans Moravec

Después de un largo intervalo de tiempo y de muchas pruebas y errores, la naturaleza en su proceso evolutivo de selección natural llega al fin a alcanzar su máxima expresión (al menos eso se pensaba), la especie más acabada y perfecta: la especie humana, la cual durante años ha sido la especie dominante en el planeta.

Pero el protagonismo de la especie humana, hoy en día, ha empezado a cuestionarse y muchos creen que el fin de especie humana es solo cuestión de tiempo. Y tal vez el representante más radical de esta forma de pensar es Hans Moravec.

Moravec es el más fervoroso defensor de una nueva era, en la que los robots estarán en la cúspide de la evolución y serán los herederos del planeta. Considera el fin de la especie es inevitable debido a causas naturales: volcanes, epidemias, choque con meteoritos, etc. Entonces, la solución es acelerar la extinción de los humanos y el surgimiento de una nueva espacie producto de una evolución artificial: los robots.

En que consiste esa evolución artificial.

Moravec espera una primera generación de robots UNIVERSALES, para el 2010, con suficiente competencia general para hacer tareas mecánicas relativamente intrincadas tales como reparación automotriz, limpieza de baños o trabajos de ensamble fabril.”

Para el 2020 tendremos la segunda generación que podrá aprender de su propio desempeño. Llevara estadísticas de cuanto éxito tiene cada alternativa y elegirá la que funcione mejor. Esto significa que podrá aprender y adaptarse.

Para el 2030, debemos tener la tercera generación de robots que emulen procesos de pensamiento de mayor nivel, tales como planeamiento y previsión. Mantendrán un modelo interno no solo de sus acciones pasadas sino del mundo exterior también. Esto significa que podrán correr diferentes simulaciones de como planean desempeñar una tarea, ver cuan bien funciona cada una y compararlas con lo que hizo anteriormente, como si estuvieran imaginando diferentes soluciones a un problema, desarrollando sus propias ideas.

En su opinión esta tercera generación será capaz de compartir sus conocimientos (en red con otros robot y asume que la tarea de comprender el mundo puede dividirse entre miles o millones de mentes robóticas conectadas. A lo que podemos preguntarnos: ¿es la inteligencia tan solo una suma de conocimientos, que es suficiente con solo compartirlos?

Pero sus ideas no se detienen en la faz de la tierra y esta convencido de que el principio del fin (por supuesto de la especie humana) esta en las colonias intergalácticas.

“A largo plazo, los robots pueden convertirse en un riesgo potencial. Naturalmente trataran de obtener energía y materia prima tan barata como sea posible, con un mínimo de interferencia reglamentaria. Y la forma ideal de hacer esto es reubicar algunas de sus operaciones fuera del planeta Tierra. A diferencia de los humanos los robots no necesitan respirar aire y pueden escudarse fácilmente de las radiaciones dañinas”

Moravec supone que la nueva superhumanidad surgirá en esas colonias intergalácticas, cuando las componías abandonen esas colonias y estas comiencen a evolucionar por si mismas. Cree firmemente que una vez que todos los materiales sean saqueados y exprimidos. Y digo yo al no tener competencia, estas maquinas serán libres de desarrollarse a su propio ritmo y pronto superaran a los terrestres (se parte de la idea de maquinas que autorreproducen a si misma sobre el principio que cada vez son mejores y mas perfectas). Y como resultado la invasión de la tierra por los robots. Pero no se preocupen, para Moravec la conquista será indolora.

Estas ideas han alarmados a muchos científicos: Joseph Weizenbaum, considera que los libros de Moravec son tan peligrosos como los libros de Hitller (Mi lucha). También Roger Penrose califica de espantosos muchos de los conceptos de Moravec.

Pero para Moravec los robots son nuestros hijos mentales, y nosotros seremos su pasado y se interesaran por nosotros de la misma forma que nosotros no interesamos por los orígenes de las especies.

Pero las maquinas no se quedaran en un mero interés también, según Moravec, serán capaces reconstruirnos átomo a átomo y crear nuevos modelos de civilizaciones humanos, Y ahora si estamos en terreno de la ciencia ficción. Entonces… ¿Somos una simulación? ¿Vivimos en una matriz y las maquinas nos mantienen vivos o conectados? Moravec cree que pueden existir muchas versiones de humanos viviendo en mundos artificiales.

Para Moravec todo el concepto de realidad es más bien absurdo. Pero cuando estas dentro de la escena no puedes menos que jugar con las reglas… Para Moravec la raza humana esta seguramente extinta y lo que vivimos es una simulación.

Entonces regresamos a la religión y a la idea de un dios perfecto que crea un mundo imperfecto.
Si, porque como es posible que esas maquinas perfectas hayan creado un mundo tan imperfecto del que se queja Moravec cuando dice:

“ La forma humana no esta diseñada para ser un “científico”, dice. Nuestra capacidad mental es extremadamente limitada. Tienes que padecer todo tipo de entrenamientos “no naturales” para lograr un cerebro medianamente adecuado para este tipo de trabajo… Vives apenas lo suficiente para comenzar a comprender las cosas antes de tu cerebro empiece a deteriorarse. Y entonces, te mueres.”

Por otra parte aquí Moravec esta hablando a nombre de todos los humanos de los artistas, filósofos, religiosos y humanos en general. Es que solo los científicos representan a la especie humana.

“Seria grandioso si pudieras mejorar tus habilidades vía inteligencia artificial y extender tu lapso de vida y perfeccionar la condición humana”.

Moravec desvía el concepto de lo humano hacia otro sentido, el de la humanidad como especie inteligente, de ahí que su inquietud este dada por probar que un ente artificial que es capaz de actuar totalmente como humano. ¿Es la inteligencia la única cualidad humana? Incluso: ¿es la más importante?

Encuentra imposible creer que tiene sentido continuar, como seres humanos exactamente en la misma forma. Y pregunta ¿Realmente queremos más de lo mismo? Más milenios de la misma vieja telenovela humana? Seguramente ya hemos interpretado la mayoría de las escenas en términos de relaciones humanas en un marco trivial. Lo que digo trasciende todo eso. Habrá historias mucho más interesantes. ¿Y que es la vida sino un conjunto de historias?

La conclusión es que la especie humana ya se agoto y que su final es inevitable y sin dudas el fin de todas las especies las cuales serán sustituidas por entidades artificiales: los robots.

Moravec es un Mesías que ve a la tecnología como herramienta para transformar al ser humano en algo más grandioso y cree que la grandeza y el poder de su destino excede todo los límites.