alejandromadruga

Licenciado en Cibernética Matemática por la Universidad de la Habana, profesor de Inteligencia Artificial y Máster en Bioética. Trabaja como especialista en Ciencias Informáticas en Infomed. Investigador, escritor y divulgador de la ciencia. Diplomado en Comercio Exterior.
Trabaja en el área de la Inteligencia Artificial desde 1985, donde ha desarrollado varias aplicaciones destacándose el sistema experto para la selección de soluciones tecnológicas, premio nacional de las BTJ.
Fundador del taller literario Oscar Hurtado y de la revista i+Real en la que publicó varios de sus cuentos de Ciencia ficción. Se destaca preferentemente en el ensayo y la divulgación científica, pero su obra incluye la narrativa de ciencia ficción y la poesía. Sus narraciones “Casa muerta” y “Cazadores de imágenes” han sido muy referenciadas en Internet.
Ha impartido cursos sobre inteligencia artificial, sistemas expertos y programación en prolog para las empresas del Frente de Proyectos. Ha dado conferencias en eventos nacionales e internacionales y ha sido miembro de tribunales para seleccionar los trabajos en la temática de inteligencia artificial.
Publicaciones:

“¿Posthumanidad o posthumanismo?”, (ensayo) colección Pensar en Cuba, Modernidad Posmodernidad, Editorial Ciencias Sociales. 1997
“Hablemos de Cibernética”. Revista Juventud Técnica No. 274 año 1996.
“¿Serán nuestros nietos robots?” Revista Juventud Técnica No.275 año 1996.
“La Inteligencia Artificial. Una luz en la naturaleza” Revista GIGA No. 3 año 1998
“Ley robot”. (cuento) Revista Juventud Técnica No.274 año 1996
“Casa Muerta”. (cuento) Antología de ciencia ficción cubana: Polvo en el Viento, (Argentina 1999).
“Inteligencia Artificial, el futuro del hombre”, Editorial Amazon. 2013
“Zaida, cuentos de ciencia ficción”, Editorial Amazon. 2013
“Cosmovisión poética”, Editorial Amazon. 2013
“Crisis en el siglo XXI: Desafíos contemporáneos”, Editorial Amazon. 2014

0

Veamos algunos supuestos en el desarrollo de las maquinas.
• La evolución de las maquinas es mas rápida que la de los humanos (para algunos parámetros).
• La singularidad tecnológica donde la tecnología se va fuera de control (dado el contexto actual basado en el poder)
• Maquina autónomas que se construyen a si misma cada vez mejores y llegan a superar a los humanos (sobre valoración de la inteligencia).
• El fenómeno de la emergencia que hará dada la complejidad cada vez mayor de las maquinas lleguen a despertar como una conciencia (el cerebro global).
• La aceptación de la superioridad de las maquinas (maquinas superinteligentes)
¿Es absurda la fusión entre humanos y maquinas? No será posible una fusión paulatina que nos lleve del hombre protésico al cyborg de forma imperceptible.
Fases de la fusión según Minsky.
1. Prótesis de miembros.
2. Implantes de Chips en el cerebro.
3. Fusión completa por la nanotecnología.

Maquinas no conscientes
¿Serán inteligentes sin ser consciente? ¿Qué pasara si superan el poder de razonamiento de los humanos? En el aspecto de las ciencias cuantitativas.
Primer problema: la sobre valoración de la inteligencia, en lugar de manejar el concepto de lo que es mejor para los humanos y que nos hará mejores seres humanos, esto nos lleva a la pregunta: ¿Qué es un humano mejor?
¿Podrán las maquinas ser mas inteligentes que los humanos sin tener conciencia de si mismas?
Relación entre humanos y maquinas. Puede suceder:
• Que desde el principio se les trate como si tuvieran conciencia.
• Que no se les considere consciente y se trate como una maquina carente de ego, que no sufre, no se avergüencen.
¿Que pasara si en algún momento las maquinas fuesen lentamente adquiriendo consciencia de si mismas? ¿Nos daríamos cuenta? ¿Se le tratara como un igual o entraremos en conflicto?
Pienso que el primer síntoma que notaremos será la creación de un lenguaje (su propio lenguaje) más acorde con sus posibilidades.
Primer problema: la sobre valoración de la inteligencia, en lugar de manejar el concepto de lo que es mejor para los humanos y que nos hará mejores seres humanos, esto nos lleva a la pregunta: ¿Qué es un humano mejor? Pregunta que trataremos de ir respondiendo en este y otros artículos.

¿Maquinas cada vez mejores? ¿Para quién, con que fin y por que?
De que estamos hablando de una maquina mejorada (mas veloz), maquina mejor (mas útil, mas integrada a las necesidades y al desarrolla), maquina mejor para el ser humano.
Intención (presupuestos para el espacio vital de las maquinas).
• Maquinas superinteligentes, maquinas cada vez mejores, mas memoria, mas velocidad de calculo.
• Maquinas productivas, integradas al proceso económico y a la competencia.
• Maquina integrada al desarrollo sostenible y al avance de la CyT.
• Maquinas humanizadas, para el mejoramiento humano, como apoyo a los humanos. Las maquinas como extensión del cerebro que permitirá mayores beneficios y progresos, que redundaran en el mejoramiento humano. Interfaz entre humanos y maquinas.

La idealización de las maquinas
1. Creer que la inteligencia es lo más importante y aspirar a ser Dios. El creador de una superinteligencia, de ahí el afán de crear maquinas superinteligentes en lugar de aspirar a maquinas mejores para los humanos, aunque el peor olvido es ignorar las leyes del mercado, que en el contexto actual, es quien dice la ultima palabra y decidirá que maquinas son las que se producirán, sin importar cuan inteligentes o humanas sean. Lo ideal fuesen maquinas que complementen a los humanos, interfaz humano computadora para ampliar las capacidades humanas.
2. Creer que las tecnologías serán las salvadoras del mundo, que ella por si sola son la solución, por lo que se propone apostarlo todo a la aceleración tecnológica. En lugar de buscar la integración de forma armónica en el progreso de toda la humanidad.
3. Creer que la única solución es la fusión entre humanos y tecnología. Dada que le apuesta a la aceleración tecnológica y a las maquinas superinteligentes, partiendo del principio que la evolución de las maquinas no tiene limites, esto lleva a la conclusión que la única solución es la fusión con las maquinas para seguir el ritmo de crecimiento acelerado y no quedarse detrás y ser dominados por las maquinas. En lugar de la cooperación.

0

(Debido a la complejidad del tema y al poco tiempo de que dispongo, lo iré publicando en varias partes. Espero me disculpen si esto les causa alguna molestia)

Hasta ahora se ha estado manejando la idea del crecimiento acelerado del potencial de las maquinas, del aumento de sus capacidades y de cada vez son mas inteligentes y se hacen mas independientes. En cambio los humanos (según los ideólogos del transhumanismo) siguen estancados y consideran que su cerebro sigue siendo prácticamente el mismo. Por lo que llegan a la conclusión inevitable que las maquinas superaran al hombre, o en el mejor de los casos, los humanos no estarán preparados para enfrentar la velocidad de los cambios que se avecinan y no le quedara mas remedio que fusionarse con las maquinas.

Pero nos estamos restringiendo a la velocidad del cerebro para procesar información con la velocidad de las maquinas. La pregunta consiste si es la velocidad el único factor y si es obligado que esa velocidad forme parte del cerebro.

Me explico, no es la primera vez que el hombre ha tenido que enfrentarse con la velocidad de las maquinas. Si pensamos en el movimiento de los humanos sobre sus dos piernas y todo lo que ha sucedido desde entonces hasta el surgimiento del automóvil. Podíamos pensar en sus inicios cuando surgieron los primeros vehículos que la única forma de subsistir ante la aceleración que se iba a producir en los medios de transporte la única solución era fundirse con las maquinas. Actualmente el hombre se desplaza sobre automóviles, barcos, aviones, sin necesidad de fundirse con ellos. ¿Por qué ahora es necesario fusionarse con las maquinas? ¿No pueden los humanos, nuevamente valerse de la velocidad de las máquinas para mejorar su inteligencia de forma erógena? Ya desde hoy se esta haciendo, para descubrir las leyes rigen el universo, la genética, el cerebro, todo esto apoyándose en la velocidad de calculo de las computadoras.

El desafío de la aceleración tecnológica o singularidad es precisamente ese, la capacidad del hombre para entenderse o relacionarse con la creciente velocidad de las maquinas sin dejar de ser humano. Hasta ahora el hombre se ha enfrentado exitosamente con las maquinas que le superan en velocidad de traslación, en fuerza (grúas, aplanadoras, buldózer), lo superan en resistencia,… Podemos decir que hoy las maquinas superan a los humanos en todas las actividades físicas. Y mientras el hombre mantiene sus capacidades físicas casi constantes, las máquinas están en un proceso de aceleración, cada vez más veloces, fuertes, resistentes, etc. Capacidades que han redundado en beneficio del hombre, quien ha sido capaz de utilizar esa capacidad de la maquina en su beneficio. ¿Por qué ahora vemos a la maquina como un ente separado del hombre que lo va a superar? La respuesta es que ahora estamos hablando de una inteligencia artificial. Pero porque no pensar que puede servir como extensión a nuestra propia inteligencia.

Lo lógico seria desde hoy pensar en formas de cooperación entre los humanos y las maquinas. Y no seguir repitiendo el mismo error que hemos estado cometiendo durante siglos y basarnos en una relación de competencia con las maquinas para ver quien domina a quien. Cuando lo correcto seria preguntarnos: ¿como será la integración de esas maquinas cada vez más inteligentes y autónomas en la cultura humana? ¿Podrán integrarse de forma armónica? ¿Tendrán su propio espacio vital?

Trataremos de dar respuestas a estas interrogantes en próximos artículos.

(Próximo articulo: La cooperación entre humanos y tecnologías: 2da. Parte)

0

Decir que el cerebro se puede copiar, parece un disparate, solo aceptable dentro de la ciencia ficción. Sin embargo, hoy por hoy, es una de las líneas de investigación en la que mas se esta trabajando, con resultados aun modestos, pero bastante significativos.

Cuando hablábamos de la posibilidad de que la maquina superara al hombre, distinguíamos dos enfoques, el de una inteligencia artificial (IA) débil y otra IA llamada fuerte. La primera trata de lograr que las maquinas sean cada vez mas inteligente, mejorando sus capacidades (hard) y sus programas, pero sin imitar a la inteligencia humana, la fuerte, trata de reproducir la forma en que los humanos piensan.

Dentro de los intentos de la IA fuerte, estaba la idea de copiar la mente, mas bien reproducirla, en otro soporte, la maquina, que al igual que el cerebro es un sistema que procesa información (ambos cerebro y hard, son equivalentes). Pero los intentos de la IA fuerte, era reproducir totalmente la mente humana en un soporte electrónico, sin importar mucho como funcionaba el cerebro, la idea se centraba en descubrir los algoritmos de la mente.

Por otra parte, con las crisis sucesivas de la IA se fue pasando de un paradigma simbolista, reproducir los algoritmos de la mente a otro conexionista que trababa de emular las conexiones del cerebro, esto unido a los nuevos intentos de que proponían en lugar de hacerlo todo desde cero, pretendiendo desarrollar todos los algoritmos de la mente, porque no trabajar sobre la idea de mejorar el cerebro. Lo cual permitió un acercamiento a la neurología y nuevas áreas de investigación como la nuerociencia.

También vimos los avances en las prótesis y los intentos de mejorar las funciones del cerebro implantándole microchips, con lo cual se ha alcanzado una mejor comprensión sobre las funciones del cerebro, independientemente de las implicaciones éticas que esto podría tener en un futuro.

Una de las investigaciones que mas impacto esta teniendo es el escaneo del cerebro.

Con el escaneo del cerebro se pretende lograr una foto del cerebro, donde se detectan zonas dañadas, mal funcionamientos.

Veamos algunas noticias, que nos indican el estado actual.

MADRID.- “Neguémonos a aceptar que ese órgano gris y uniforme, que estamos habituados a ver a través del escáner, es el verdadero cerebro”. Con esta máxima, Van Wedeen, experto del Hospital General de Massachusetts (EEUU), ha sido capaz de obtener imágenes en color y 3D de las fibras nerviosas responsables de las distintas funciones del cuerpo humano: vista, olfato, movimiento… Todo un entramado de carreteras que se entrecruzan y que presentan una geometría nada casual.

CHICAGO.- Las imágenes del cerebro de personas que están mintiendo son diferentes a las de quienes dicen la verdad y es posible que éstas puedan medirse a través de la resonancia magnética, lo que supondría el comienzo del fin del detector de mentiras, según han revelado investigadores estadounidenses.

Un grupo de científicos de la Universidad de Washington ha logrado explicar, a través de un escáner, cómo somos capaces de imaginar el futuro. Los investigadores han asegurado que hay específicas áreas del cerebro que se activan cuando se piensa en algo que aún no ha ocurrido, según publica hoy la BBC.

(www.neoteo.com) La compañía japonesa ha fabricado un escáner que permite leer la actividad del cerebro El escáner de cerebro de Hitachi consta de un casco y un receptor/transmisor De tan solo 400 gramos de peso, el casco-lector será en pocos años y según Hitachi un dispositivo de uso diario. Con baterías recargables, el escáner envía información a un receptor/transmisor, y se basa en la tecnología denominada “topografía óptica…

Con todo lo anterior las condiciones estaban dadas y si antes era una locura pretender la copia del cerebro y nadie se embarcaría en una empresa así, actualmente esta investigación se ha convertido en un tema de gran interés científico, hasta el punto que de ser uno de los 6 experimentos mas experimentos mas importantes del mundo, consiste en la modelizacion del cerebro humano. Conocido como el proyecto Blue Brain.

Proyecto Blue Brain

El proyecto Blue Brain, para muchos comparable al Proyecto Genoma Humano. Comenzó con una colaboración entre IBM, que utiliza una máquina dotada con 8 mil procesadores que trabajan en paralelo para simular la forma en que las neuronas intercambian información en tiempo real, y el profesor y director de esta investigación, es el Suizo, Henry Markram. Quien ha pasado los últimos 15 años tratando de crear una simulación, neurona por neurona, del cerebro.

Se persigue crear un modelo del cerebro humano (la IA fuerte pretendía crear un modelo de la mente), con el fin de comprender el funcionamiento del mismo, como se produce el pensamiento, como es su percepción de la realidad, como se forma la conciencia. Hasta el momento estamos refiriéndonos a un modelo del cerebro y no de la copia del cerebro.

Cuando se modela un objeto este puede representar la estructura del objeto, las funciones del objeto, pero nunca será el objeto. Ejemplo, la maqueta de un edificio, la representación en 3D, la simulación, etc. Estos nos permite que objetos complejos puedan ser estudiados sin tener que alterar o dañar el objeto real (en muchos casos es un problema de costos).

Como ya dijimos la mente y el cerebro son considerados por la IA como dos entes independientes: uno esta representando por el software y el otro por el hardware de la maquina)

La clave esta si retomamos la metáfora de la IA fuerte de considerar al cerebro y la maquina como equivalentes, en ese caso estamos hablando de reproducir en cerebro en una maquina. Hay que tener claro este concepto cuando hablamos de una modelo estamos hablando de una representación del objeto real y no de una reproducción del objeto real. Salvo que aceptemos la idea de la IA fuerte de que ambos son sistemas que procesan información entonces estaríamos hablando de la posibilidad de reproducir las conexiones del cerebro en un circuito electrónico.

El modelo del cerebro pretende ser una plantilla genérica que permita simular las diferentes especificaciones. De nuevo se persigue un modelo general al estilo del solucionador general de problemas de los primeros años de la IA.

El proyecto cuenta con el apoyo de IBM que entrego una supercomputadora capaz de procesar 22 trillones de operaciones por segundo.

Markram espera contar con un cerebro humano virtual, con todos sus 100 mil millones de neuronas, el funcionamiento en el año 2015. Para ello, el equipo de investigación formado por bioinformáticos, neurólogos y arquitectos, pretende pasar por diferentes fases de modelización completa de las funciones del órgano gris: rata, gato, primate y, finalmente, el hombre.

El proyecto, que actualmente, ha sido capaz de desarrollar la red neuronal de una rata de 2 semanas de edad, aseguran. que ya saben como crear lo microcircuitos similares a los del cerebro y que lo único que queda por hacer es poder escalarlo. En un futuro se pretende crear una simulación en 3D de todo el cerebro humano a nivel molecular.

Para terminar retomamos algunas de las ideas de Ray Kurzweil de quien ya hemos hablado en otros artículos. Quien considera que es posible la exploración del cerebro para trazar un mapa de sus localizaciones, conexiones, interconexiones y contenidos lo cual permitirá realizar la copia del cerebro en otro medio no biológico.

Y afirma que actualmente una computadora es más rápida que el cerebro humano en algunas cosas, pero lo difícil es que tenga la riqueza, sutileza y profundidad de nuestro pensamiento. Para lograrlo será clave el software de la inteligencia, basado en la ingeniería inversa, que copia el funcionamiento del cerebro humano. Nuestros circuitos cerebrales son tridimensionales y se basan en unas complejísimas conexiones. Escaneando el cerebro podremos crear una réplica, y usando circuitos artificiales tridimensionales de nanotubos (tubos microscópicos) podremos imitar su funcionamiento y crear una inteligencia artificial avanzada. El profesor norteamericano Andreas Nowatzyk ya trabaja en un proyecto para copiar el cerebro de un ratón. Es un primer paso para lo que vendrá luego.

Kurzweil esta convencido que es posible escanear el cerebro y luego instalarlo en otro medio no biológico, tales como los entornos de realidad virtual donde se podrán integrar todos los sentidos y a la vez serán capaces de mejorar la inteligencia; se podrá pensar más rápido, tener pensamientos más complejos y telecargar el conocimiento, y sueña con que estos entornos de realidad virtual entre el 2030 y el 2040 compitan con los entornos reales y, según él, los entes no biológicos podrán tener cuerpos parecidos a los humanos y además, gracias a la nanotecnologia, también podrán tenerlos en la realidad

Como decíamos una copia del cerebro no es el cerebro en si, tampoco queda claro que la reproducción del cerebro en otro medio no biológico, incluya la transferencia de la mente con todos sus pensamientos, sentimientos. De ahí que las investigaciones del suizo, Markram sean más objetivos y se inclinen más a la simulación del cerebro neurona a neurona. En el otro extremo esta la ideología transhumanista que ve como viable la transferencia de la mente sin importar el sustrato (el cerebro) y sueñan con transferir su mente e incluso mejorarla a otros entornos como la realidad virtual. Pero no se pueden ignorar los avances que se están obteniendo en todas partes del mundo con el escaneo del cerebro basado en tecnologías probadas como la tomografía digital y la resonancia magnética sin olvidar el impacto cada vez mayor de la neurociencia computacional.

(Próximo artículo: la cooperación entre humanos y tecnologías)

0

Mientras la aceleración tecnológica o singularidad tecnológica como le llama Vernor Vinge, plantea que el desarrollo tecnológico crece a un ritmo acelerado, donde sus potencialidades se duplican de una año a otro, lo cual lleva a un crecimiento exponencial, que nos acercara a un punto en que su crecimiento será tan vertiginoso que será imposible darle seguimiento, se refiere, a que los humanos no podrán seguir los cambios tan vertiginosos que se avecinan y que a partir de ese punto, la única solución esta en pasarle el control a las maquinas o fusionarse con ellas.

Un primer acercamiento a esa fusión, que parece casi inevitable, son las prótesis. Al que pierda un brazo o una pierna que esta se le pueda sustituir por un organismo cibernético o que a un ciego o un sordo se le pueda implantar un dispositivo que le permita suplir su deficiencia. Así las cosas podemos seguir hablando de órganos que se pueden sustituir: como el corazón, los riñones, etc. Así, hasta llegar a sustituir partes del cerebro dañadas. Así podemos llegar a un hombre protésico, que producto de sucesivos accidentes, por ejemplo de transito, haya sido reemplazado totalmente por prótesis. Recuerden el cuento de Stanislaw Lem, “¿Existe verdaderamente Mr Smith? En el cual, la firma, que le había estado sumisntrando las prótesis, reclamaba sus derechos sobre el, por considerarlo una maquina. Y la cuestión era, si Mr Smith, seguía siendo humano o se había convertido en una maquina.

Parece que en un futuro tendremos que enfrentarnos a estas decisiones. Podemos creer que ese futuro aun esta lejano. Veamos algunas noticias actuales sacadas de la revista electrónica AXXON.

Módulos de memoria:
(Reuters, New Scientist) Un grupo de científicos logró desarrollar la primera región artificial del cerebro, un microprocesador de silicio que imita las funciones de una zona que controla la memoria, el estado de ánimo y de vigilia… Si todo sale bien, luego será probado de manera que ayude a las personas que han sufrido lesiones en el cerebro debido a accidentes cerebrovasculares, epilepsia o a la enfermedad de Alzheimer…

Prótesis de miembros
(El País)… De cara al futuro hay una intensa investigación en el desarrollo de nuevos tipos de prótesis de partes del cuerpo humano como brazos o piernas. Se ha demostrado, por ejemplo, que se puede conectar el sistema nervioso de un individuo con una mano artificial a través de un ordenador y controlar su movimiento e incluso recibir sensaciones a través del sistema…

Ojo biónico
(BBCMundo) El experimento se basa en un chip informático que se ubica en la parte trasera del ojo humano. Éste funciona a través de una conexión con una mini cámara de video construida dentro de los lentes que debe usar la persona. Las imágenes son captadas por la cámara y procesadas por el chip para luego trasladar la información por medio de impulsos que el cerebro puede interpretar… Según el profesor, Dagnelie, las pruebas con seres humanos se llevarán a cabo en el transcurso del próximo año…

Hemos visto, lo que se nos avecina con respecto al hombre protésico, al estilo de Mr Smith. Pero no todo puede suceder de forma causal o no intencional. Decía al principio que muchos creen que la solución ante la aceleración tecnológica es la fusión con la maquina, el Cyborg, parte humano y parte maquina.

Marvin Minsky una de los padres de la Inteligencia Artificial, esta totalmente de acuerdo en que hay que mejorar a los humanos y propone los siguientes pasos:
1. Las prótesis de miembros: “Sustituir las partes gastadas de nuestro organismo por elementos de repuesto de nuevo tipo”.
2. La conexión directa dentro del cerebro: “Invención de métodos que potencien nuestro cerebro permitiendo adquirir mayor sabiduría”.
3. La conexión completa: “Mediante nanotecnología, sustitución completa”.

Vemos que ya Minsky esta hablando de mejorar y potenciar las facultades humanas, idea que proviene del pensamiento transhumanista de lograr un humano mejorado.

Pero el pionero de la idea de convertirse en Cyborg es Kevin Warwick, de quien ya hablamos en la segunda parte del artículo: ¿Se acerca el fin del mundo?

En 1998, Warwick, causó revuelo cuando se hizo implantar un microchip en su brazo, durante nueve días, con el fin de unir su sistema nervioso al de una computadora. Entre sus logros esta, controlar los movimientos de una mano robótica por medio de su sistema nervioso.

Los implantes de microchip, se han convertido en su obsesión, de ahí que alguno le llame el capitán chip, y aspira a implantarse un chip directamente en el cerebro con el fin de comunicarse con las computadoras, como una forma de telepatía entre humanos y maquinas, que, entre otras cosas, le permita grabar sus recuerdos.

No oculta su intención de convertirse en Cyborg, lo cual aspira a hacerlo cuanto antes, su tesis parte que los humanos y las maquinas competirán entre si y como según su punto de vista, las maquinas son superiores, la único opción que nos queda es fusionarnos con ellas. Superioridad que, según el, se sustenta en cinco cualidades de las que carecemos: poseen una memoria casi ilimitada, una capacidad de cálculo extraordinaria, la posibilidad de comprender más de tres dimensiones o cinco sentidos -pueden captar ultrasonidos o emitir infrarrojos- y, finalmente, pueden comunicarse sin hablar.

Típico del razonamiento transhumanista que ignora el verdadero potencial de la mente humana y lo reduce a las posibilidades de la maquina y desde hoy se abroga el derecho de decidir el futuro de las próximas generaciones cuando afirma: “A todos los que queráis seguir siendo humanos, tengo que deciros una cosa: en el futuro, seréis una subespecie“.

(Próximo articulo: la copia del cerebro)

0

¿Podrá la maquina superar la inteligencia humana? La idea esta ligada al desarrollo de la Inteligencia Artificial y su sueño de reproducir la mente humana en una computadora. Puede parecer absurdo, pero si partimos de la metáfora, aceptada por todos los investigadores de la IA, que tanto el cerebro, que contiene la mente, como el hardware, que contiene los programas; se basan en el procesamiento de la información. Por lo que la mente no es otra cosa que algoritmos altamente complejos que pueden ser codificados en forma de programas.

En sus inicios la inteligencia artificial (IA) se fundamento en las búsquedas heurísticas. Se creía que el hombre resolvía todos los problemas a través de métodos heurísticos y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos de computación. Se creía que todos los problemas se podían resolver recorriendo un árbol de objetivos y la solución del problema, consistía en encontrar el camino correcto, desechando todas aquellas vías poco fértiles. La dificultad estaba en cómo desechar esas ramas o caminos improductivos, quién podría garantizar que ese camino después no fuese el mas adecuado, hasta qué profundidad había que recorrer el árbol para estar seguro de que esa vía era errónea, cómo evitar, qué producto de la ramificación creciente del árbol, un exceso de combinaciones incalculables (explosión combinatoria).

Entonces, se soñaba con hallar un algoritmo general basado en los principios heurísticos que fuera capaz de resolver cualquier tipo de problema. Ejemplo de ello fue el GPS (solucionador general de problemas) con el cual se podía demostrar cualquier tipo de teorema matemático, pero era incapaz de resolver problemas de carácter elemental que requieran un mínimo de sentido común. Con el tiempo estos resolvedores generales fueron abandonados y se trató de darle solución a problemas más específicos, problemas que dependían de un dominio de aplicación y los cuales se solucionaban a través de los conocimientos que se poseían sobre ese dominio, lo que dio lugar a la explosión de los sistemas basados en conocimientos mas conocidos como sistemas expertos, los cuales debido a la estrechez de su dominio en la solución de los problemas, no cumplían con las expectativas de los usuarios. Esto, entre otras cosas, trajo como consecuencia la crisis del paradigma simbolista dentro de la IA lo que originó nuevos paradigmas.

Desde sus inicios podemos hablar de dos enfoques de la IA, de una parte la IA fuerte y de la otra una memos categórica a la hora de interpretar los hechos, la IA débil.

La Inteligencia Artificial fuerte:
La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio, el cerebro se considera un soporte más.

En cambio para la IA débil (menos radical que la anterior, y también más extendida desde el fracaso del enfoque idealista de los primeros años) computación no supone consciencia, y la simulación artificial de actividades mentales en ningún caso da origen a fenómenos mentales como dolor, reconocimiento, entendimiento o intencionalidad. No obstante se acepta la posibilidad de una simulación de la mente que suponga identidad funcional, aunque nunca identidad estructural.

Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.

Siguiendo las ideas de John Searle: La IA débil tiene por único objetivo simular estados mentales sin pretender por ello que las computadoras tengan conciencia,… El objetivo de la IA fuerte, por el contrario, es una computadora con conciencia.

De lo que surge otra pregunta: ¿Tendrán las maquinas conciencia de si misma o sea. Serán autoconscientes? Antes de tratar de responder esta pregunta, vamos a ver el estado actual de la IA.

Luego del fracaso en los 80s del paradigma simbólico, basado en los métodos heuristicos, los sistemas basados en conocimientos. Se necesitaba de nuevos enfoques de ahí que se retomaran algunas ideas, en muchos casos condenadas por los padres de la IA:

Nuevas tendencias en la IA

• Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente..
• Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
• Maquinas superinteligentes: Se cifra la esperanza en el hardware, maquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
• Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
• Robots reactivos, se desarrollan pequeños robots capaces de interactuar con en el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas.

El primer fracaso de la IA estuvo al pronosticas que en los 80s se lograría un modelo informático de la mente que igualaría al humano, otro fracaso fue pensar que los sistemas expertos llegarían a sustituir a la mayoría de los especialistas humanos (al menos pensaron que estos sistemas tendrían una gran demanda en el mercado) y el mas estrepitoso de todos el proyecto japonés de 5ta generación, la creación de una supercomputadora que en lugar de trabajar en base a operaciones por segundo, funcionase basada en inferencias por segundo, idea tomada de la lógica y del lenguaje Prolog.

Esto dio lugar a un nuevo paradigma, el conexionista, que incluye prácticamente a todos los puntos vistos anteriormente, siendo el de más impacto teórico las redes neuronales (la simulación de la conexión entre neuronas).

Pero los resultados siguen siendo lentos y los financistas comienzan a escasear y son muchos los que comienzan a abandonar las filas de la IA. Pero en medio de este panorama surgen nuevas ideas, en principio relacionadas las tecnologías informáticas convencionales y posteriormente de la convergencia de las tecnologías de punta como las nanotecnologia y la biotecnología, ideas que están conmocionando los círculos científicos y que incluso investigadores de la talla de Marvin Minsky uno de los padres indiscutibles de la IA, se le este dando su apoyo incondicional.

Entonces… Que esta sucediendo ahora? Porque la IA y sobre todo las maquinas inteligentes están ocupando las mentes de muchos científicos y filósofos. Cuál es el nuevo enfoque?

“Si partimos del hecho que las máquinas son cada vez más veloces, piensen en las primeras computadoras que no alcanzaban los 10 Megahertzios (Mhz) a las actuales que ya sobrepasan los 3 Gigahertzios y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Con la obtención de máquinas superveloces, estas podrán efectuar un billón de operaciones por segundos, con lo cual según Moravec estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre”.

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguiente conceptos:
• La evolución de las maquinas es mas rápida que la de los humanos, mientras las maquinas sufren un crecimiento acelerado, la evolución natural de los humanos esta prácticamente detenida.
• La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
• La maquinas que se Irán auto construyéndose a si misma cada vez mas perfeccionadas, mas veloces, mas memorias, dotadas de mejores algoritmos podrán llegar a convertirse en maquinas superinteligentes que superen a los humanos..
• La inteligencia de las maquinas dada la complejidad que Irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

¿Hay alguna razón que nos pueda llevar a pensar que será así?

Hoy la maquina supera al campeón del mundo en ajedrez, no seria esto razón suficiente. Sin embargo la maquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de calculo que le permite explorar de forma casi exhaustiva todas las variantes, además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, lo que se llama algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las maquinas mejoren su hardware obtendrán resultados mejores así, hasta superar a los humanos en todas sus facetas.

Ya habíamos mencionado que la idea de la IA débil no era copiar la mente humana sino lograr resultado equivalente a los que logran los humanos, sin tener que ser auto consciente.

¿Será posible que las maquinas sean mas inteligentes que los humanos sin tener conciencia de si misma? (Esto lo analizaremos cuando tratemos el tema: la cooperación entre humanos y maquinas).

Para terminar, diremos que hoy son muchos los científicos de renombre que se han adherido a esta hipótesis entre ellos: Vernor Vinge, Ray Kurzweil, Hans Moravec, Marvin Minsky, entre otros. También instituciones como IBM, Intel, etc. Trabajan en proyectos relacionados con el tema y otros se mantienen muy atentos de lo que sucede como Microsoft y Sun por solo citar dos nombres Lo que nos hace pensar que no todo es fantasía.

(Próximo articulo: La fusión entre humanos y maquinas)

0

Durante siglos, la tecnología ha sido una herramienta en manos del hombre, que en muchos casos la ha permitido la supervivencia, en otros casos la conquista de otros pueblos y la destrucción del planeta. Hoy la tecnología es cada vez más autónoma y va poco a poco desplazando al hombre de sus actividades laborales, comenzando por aquellas rutinarias y peligrosas, hasta llegar a aquellas que requieren de cierto intelecto. ¿Hasta donde llegaran las maquinas? ¿Podrán sustituir totalmente al hombre?

Aunque en general nos referimos a las tecnologías en lo particular se hará hincapié en las maquinas, dada mi formación como cibernético.

Es necesario saber primero, ¿Cuál es nuestra visión sobre las maquinas? Que van desde le que desconoce el tema y cree que las maquinas no son un peligro, hasta los que ven como inevitable que la maquina supere al hombre o los que ven la solución en una posthumanidad donde se fundan humanos y tecnología o los que especulan con que es posible copiar la mente humana en un soporte informático y por ultima los que piensan (aquí me incluyo) que tanto las maquinas como los humanos pueden trabajar de forma cooperativa por un mundo mejor.

Escenarios futuros para una relación entre humanos y tecnología.
1. Las tecnologías no son un peligro.
2. Las tecnologías superando a los humanos (IA débil)
3. La fusión entre humanos y tecnologías:
• Cyborg.
• Hombre protésico.
4. La copia del cerebro (IA fuerte)
5. La cooperación entre humanos y tecnologías.

1. Las tecnologías no son un peligro

Se basa en la hipótesis compartida por muchos que las maquinas solo son un pedazo de lata que hace lo que se le ordene y en la creencia de que el mundo siempre será igual, con sus eternas desigualdades e injusticias, donde la tecnología siempre estará subordinada a los humanos del norte como un medio de poder económico, social y militar, y bastara con desconectarla de la fuente de energía y el peor de los casos que logren cierta autonomía, ante la primera amenaza se podrá reprimir el desarrollo de las maquinas. Actitud demasiado pasiva dado los intereses políticos y militares que se mueven detrás del uso o mal uso de la tecnología. La pasividad y la no creencia (no creo que eso suceda) en estos tiempos puede ser fatal. La historia ha demostrado que la tecnología puede llegar a limites insospechado: bomba atómica, llegar a la Luna, maquinas que superan al campeón mundial de ajedrez, Fabricas totalmente automáticas, realidad virtual,… ¿Hasta donde podrán llegar la tecnología en su desarrollo cada vez mas acelerado?

(Próximo articulo. La tecnologia: Superando a los humanos)

0

Habíamos visto que dada la complejidad del diseño de agentes, son sistemas abiertos y cooperativos donde cada agente debe jugar su función se requiere de plataformas de desarrollo que faciliten la programación. Y que existían dos tipos de plataformas: las herramientas o armazones y las genéricas.

Plataformas de herramientas o armazones.
El caso más significativo de las armazones de software es Zeus, que presenta un entorno de desarrollo con el que se programa visualmente el SMA. Las posibilidades de programación a través de este entorno son muy variadas. Entre otros hay que suministrar una ontología: reglas de comportamiento, planes de ejecución de tareas y mensajes a enviar a otros agentes.

Debido a esta versatilidad en su configuración, el diseño con ZEUS se hace tan complejo como programar con lenguajes de agentes. Aunque se facilita el desarrollo de aspectos como la coordinación, quedan pendientes decisiones como qué hay que coordinar y para qué. Por ello, la aportación de una metodología en este caso consistiría en proporcionar un ciclo de desarrollo, actividades y elementos conceptuales que ayudasen al descubrimiento incremental de los elementos requeridos por ZEUS. Un ejemplo, aunque limitado, de metodología para ZEUS se tiene de mano de sus propios desarrolladores [Collis y Ndumu 99], donde se aplica la idea de rol para guiar el descubrimiento de funciones del sistema.

Zeus es un conjunto de herramientas para ayudar en la creación de sistemas de
agentes colaborativos (limitados en competencias y recursos, por lo
que deben compartir sus habilidades con otros para realizar un
problema más complejo)
http://www.labs.bt.com/projects/agents/zeus/index.htm

Es un paquete de clases JAVA, que cuenta con
Agent building software:
• Editores que ayudan al usuario a crear los agentes utilizando los “bloques” o componentes software
• Sigue la metodología propia en 6 etapas:
1. Análisis (identificación de agentes)
2. Definición de agentes (atributos).
3. Organización de agentes.
4. Definición de las tareas de los agentes.
5. Coordinación de agentes (protocolos).
6. Generación automática de código (JAVA)
Agent Component Library.
• Bloques de construcción de agentes.
• Proporciona mecanismos de comunicación
1. Lenguaje de comunicación (ACL, KQML)
2. Mecanismos de paso de mensajes (TPC/IP)
• Gestión y uso de Ontologías.
• Librerías de protocolos.
• Otros.

Zeus es a su vez una herramienta y una metodología…

ABLE (Agent Building and Learning Environment) [IBM 02] aunque también permite el prototipado rápido de SMA, no llega al nivel de ZEUS. ABLE es una herramienta de IBM para la construcción de sistemas de agentes inteligentes donde todos sus elementos, incluso los agentes, se construyen por composición de AbleBeans, una extensión de los JavaBeans1. Son de interés un conjunto de AbleBeans especializados que implementan sistemas de aprendizaje estadísticos (mapas autoorganizativos, redes neuronales, mapas de conexión) y control simbólico (razonamiento por encadenamiento hacia delante y lógica de predicados). ABLE incorpora también un entorno visual de desarrollo donde se interconectan AbleBeans. El interés de esta plataforma es que soluciona visualmente la construcción y comunicación de los agentes.

ABLE no llega a detallar cómo se obtiene la funcionalidad de los agentes y cómo deben actuar en cada situación. La aportación de una metodología a ABLE sería más amplia que en el caso de ZEUS. Se trataría de dar medios para detallar aspectos de control del agente teniendo en cuenta los elementos de control que vienen predefinidos en ABLE. Sería útil, por ejemplo, la idea de casos de uso [Jacobson, Booch y Rumbaugh 00] para identificar conjuntos de funciones a proporcionar por el sistema y escenarios para describir cómo se espera que se realice el proceso de aprendizaje de los agentes.
Entorno: plataformas para el diseño, implementación, pruebas y
ejecución de agentes autónomos y sistemas multiagente.
La mayoría implementan la arquitectura abstracta de la especificación
FIPA (www.fipa.org) y proporcionan servicios o facilidades para la
ejecución de MAS…

Herramientas o armazones:
1. Zeus.
2. ABLE

Plataformas genéricas
Las plataformas de desarrollo más extendidas son JADE [Bellifemine, Poggi y Rimassa 01] y Grasshopper [Breugst y Magedanz 98].

JADE es la implementación oficial del estándar FIPA [FIPA 95], y soporta todos los servicios básicos de infraestructura especificados en FIPA (comunicaciones, movilidad, gestión de agentes y localización de agentes), a los que añade algunas utilidades gráficas para facilitar la administración de las plataformas y la depuración de los mensajes intercambiados por agentes en tiempo de ejecución.

Es un paquete desarrollado en Java que cuenta con
Java Agent DEvelopment framework
Soporta la implementación de MAS (FIPA compliant) :
• Librería de paquetes para programar agentes.
• Herramientas para la depuración y la ejecución de agentes.
Plataforma distribuida para la ejecución de agentes (heterogéneos
como Zeus): middle-ware para MAS
• servicios para agentes: directorios, codificación y transporte de mensajes
• herramientas: monitor remoto de agentes, sniffer agent, dummy agent
Completamente desarrollado en JAVA
Libre distribución bajo licencia LPGL
http://sharon.cselt.it/WWW projects/jade/

Grasshopper es la implementación del estándar MASIF [Baümer et al. 00], que soporta la movilidad de agentes en un entorno distribuido utilizando comunicación y servicios CORBA [OMG 00a]. En JADE y Grasshopper existe una arquitectura básica de agente que hay que utilizar para acceder a los servicios de la plataforma correspondiente.
El diseño de agentes con estas plataformas significa atenerse a unos estándares de comunicación y de gestión de agentes. El resto, como la especificación del control del agente, su inteligencia o las relaciones entre las tareas del sistema, se deja al criterio del desarrollador. La aportación de una metodología a desarrollos basados en este tipo de plataformas consistiría en organizar el proceso de generación del SMA y en proporcionar elementos para el diseñador pueda describir estos aspectos teniendo en cuenta las restricciones de la plataforma destino.

Plataformas genéricas:
1. JADE.
2. Grasshopper.