inteligencia artificial

0

Las amenazas son los efectos que estamos sufriendo de las acciones humanas dado nuestro contexto actual de dominio que ha provocado el crecimiento acelerado de dos parámetros: la degradación del planeta y el desarrollo de la tecnología con fines hegemónicos.

Dentro de las amenazas que enfrenta la humanidad esta las del presente, las que ya estamos sintiendo sus efectos y las futuras, las que producto de nuestro sistema social y económico, estructurado sobre la base del poder, podrían conducirnos a una mala utilización de las tecnologías, ya sea por errores o con fines destructivos. A las amenazas futuras, el filósofo y tecnofuturista norteamericano Nick Bostrom, las llama riesgos existenciales.

Vamos a ver los algunos de los riesgos existenciales que menciona Nick Bostron (aquellos que tienen que ver con la acción humana,

1. Mal uso de las tecnologías.
2. Guerras nucleares.
3. Pandemias.
4. Aristocracia posthumana.
5. Mala programación de una superinteligencia.
6. Superintenligencia autónoma que asume los valores de poder.
7. Criogenización y superpoblación.
8. Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).
9. Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la practica
10. Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.

El mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se considera los errores humanos, ej.,que un virus se escape de un laboratorio.

Si en la anterior nos referíamos a una extinción por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinción donde la lucha por el poder llega a límites extremos.

Aquí estamos considerando los escenarios que tienen que ver con la acción humana, por eso no se tienen en cuenta otros como los supervolcanes, tsumani, choque con un meteorito, etc. En el caso de las pandemias estas pueden ser productos de la mala manipulación humana de los virus y de experimentos no seguros.

Dentro de los riesgos de Bostron está que solo un grupo pueda alcanzar la posthumanidad, lo cual seria lo natural, dada los desequilibrios insostenibles y las desigualdades existentes, que siguen creciendo y si hoy hablamos de brecha digital, mañana hablaremos de una brecha tecnológica que dará lugar a una tecnocracia que se asuma el papel de una raza superior y tome el control del mundo

Una inteligencia artificial (IA) que por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador.

Ya hay algunos que están pagando por que se les congele sus cuerpos al morir; no todos, aunque lo deseen, pueden pagarlo; otros congelan sus cabezas, para cuando la tecnología haya madurado, los revivan y puedan disfrutar de una vida posthumana. De momento es solo un negocio donde ya algunas compañías están recibiendo sus ganancias. Esto según Bostrom podría crear una sobrepoblación, para la que no se estaría preparado, de hecho ya estamos ante un crecimiento incontrolado de la población.

Una de las mayores preocupaciones de Bostrom creador del transhumanismo, del transhumanismo hablaremos después es que no se llegue a alcanzar la posthumanidad, de ahí su preocupación a que surjan leyes que prohíban ciertas investigaciones o aplicaciones que limiten o frenen el camino hacia una transhumnidad, para él, la única solución viable para la humanidad. También le preocupa que existan problemas tecnológicos, que no permitan llevarla a la práctica y aquí surge una de las hipótesis más importantes: la acelerada degradación del planeta, calentamiento global, contaminación, consumo de recursos no llevará a corto plazo a la muerte del planeta y convirtiéndolo en un lugar inhóspito sin dar tiempo a que la tecnología se desarrolle lo suficiente y no se pueda alcanzar la meta de una posthumanidad. De ahí la tesis de los tecnofuturistas de apostar por la aceleración de la tecnología a toda costa, con el fin de tener alternativas artificiales que sustituyan la vida actual.

Bostrom, al final de sus hipótesis sobre los riesgos reconoce, por fin, que muchas estrategias a largo plazo se deben delegar (al igual que un jefe delega a un subordinado) a las generaciones futuras ya que no hay nada que podamos hacer

Con respecto a la aceleración, según datos de las Naciones Unidas, tenemos:

• Un crecimiento muy superior al que se había producido desde el comienzo de la civilización hasta 1950.

• Los 20 países más ricos del mundo han consumido en el último siglo más materia prima y más recursos energéticos no renovables, que toda la humanidad a lo largo de su historia y prehistoria.

• Desde mediados del siglo XX han nacido más seres humanos que en toda la historia de la humanidad.

Por lo que es casi seguro que cuando se alcance la primera mitad del siglo XXI se haya consumido más recursos del planeta que en toda la historia anterior (incluido la segunda mitad del siglo XX, que a su vez había consumido más recursos que en toda la historia). De mantenerse esta aceleración, que parece no tener límites, debida al ansia de consumismo y al egoísmo humano. Teniendo en cuento que los recursos del planeta son limitados; el agotamiento de los recursos es solo cuestión de tiempo.

Por lo que según estos datos, sino se hace nada, es muy posible que la aceleración de la degradación del planeta le gane la competencia a la aceleración de las tecnologías y su sueño de una posthumanidad.

0

Con la cibernética el concepto de máquina ha ido cambiando a lo largo de los años. Luego de aquellas primeras máquinas mecánicas donde se pretendía reemplazar completa o parcialmente el trabajo físico del hombre y de los animales, han seguido otras, cuyo fin, es la mecanización del trabajo intelectual. Hoy las máquinas realizan funciones que antes se consideraban propias del intelecto humano.

Peor quizás el aporte más importante de la cibernética fue fundamentase sobre las analogías, de ahí su característica de ciencia exogena, la cual esta dada por la interrelación con otras ramas del conocimiento y su asimilación, pero sobre todo por la propuesta de teorías generales que explicasen fenómenos propios de las otras ciencias. Por ejemplo la cibernética ha preferido basarse en la teoría de los modelos, haciendo mas hincapié en la representación funcional de los organismos que en su estructura, en el sentido vertical o jerárquico.. Esto unido a la búsqueda de analogías entro los fenómenos y no a la reducción de un fenómeno en otro (como posteriormente hizo la inteligencia artificial), la llevo a convertirse en una guía científica para la comprensión del mundo desde una visión más general y abierta.

De ahí que cuando los cibernéticos intentaban modelar la estructura de un objeto, mas que la estructura lo que tenían en mente era la reproducción de su funcionamiento sobre otra estructura y se aspiraba a que ese modelo u objeto artificial exhibiera una conducta similar a la del original. Digo similar porque en realidad la conducta mostrada por los modelos siempre estará supeditada a la interpretación del investigador..

Otro de los aportes de la cibernética fue la utilización del aparato matemático (su creador Wiener, fue un destacado matemático), que hasta ese momento era de uso casi exclusivo de la física, como la cibernética era a su vez una disciplina común a varios sectores de investigación, trajo como consecuencia que ramas como la psicología, la sociología y la biología pudieran de alguna manera formalizar sus teorías y fue mas lejos, al proporcionarles métodos de experimentación a través de la creación de máquinas que permitieran estudiar conductas, reacciones, reflejos, formas de aprendizajes…

Entre las investigaciones de los cibernéticos estaba el estudio del reflejo condicionado, un ejemplo de esto fueron las tortugas de Grey Walter, las cuales eran capaces de orientarse por la luz y luego de repetirle un sonido junto a la luz estas eran capaces de orientarse por el sonido.

Los ratones de Shannon eran capaces de aprender a orientarse a través de un laberinto y encontrar la salida, aquí estamos en presencia de mecanismos de búsquedas heurísticas, que luego se convertirían en la funtamentacion de los métodos de búsqueda de la inteligencia artificial.

En nuestros días, se mueven libremente, por los la laboratorios del MIT, una serie de ciberanimalitos, que evaden exitosamente los objetos, cuya idea esta basada en muchos de los métodos cibernéticos.

Ya desde épocas tempranas la Cibernética se cuestiono muchas de las funciones de la mente humana y sobre todo de los mecanismos del aprendizaje y su simulación en las máquinas. Uno de estos mecanismos fue el método de prueba y error dando inicio a las ideas heurísticas la cual se convirtió en el fundamento de la futura inteligencia artificial y de su aplicación en los sistemas expertos siendo significativas las ideas sobre la resolución de problemas.

En la resolución de problemas obtuvieron conclusiones interesantes como la siguiente: la resolución de problemas es un mecanismo de autorregulación donde el éxito da como resultado la interrupción de toda actividad ulterior mientras el fracaso o éxito incompleto conduce a nuevos intentos de encontrar una solución enviando (realimentando) la información acerca de error a la parte del mecanismo que pone en marcha la actividad (el efector). Como consecuencia de estas investigaciones se enfoco el aprendizaje a través de los mecanismos de prueba y error del cual se dedujo que el proceso de adquirir un hábito, se desarrolla de forma gradual una sucesión de pasos correctos, mientras las acciones que no concuerdan con esa sucesión resultan gradualmente eliminadas. Los cibernéticos como fieles representantes de la naturaleza aceptaron la idea de que ningún aprendizaje surgido por el método de prueba y error comienza mientras no exista una necesidad insatisfecha.

Otros de los temas de nuestro tiempo, que ha suscitado más polémica entre los investigadores de la IA, es la intencionalidad. Tema también tratado por la cibernética, donde se planteaba que la intencionalidad era un rasgo de los organismos vivientes visto como una tendencia a un objetivo, el homeostato de Ashby es un ejemplo de intencionalidad cibernética.

Para los cibernéticos la intencionalidad no es un fenómeno vital enfocado como objetivos humanos, ligados a las sensaciones, sino como una retroalimentación negativa que busca el equilibrio del sistema a toda costa, siendo la búsqueda del equilibrio a través de la realimentación, lo que hace que un sistema tenga intencionalidad y como todos los fenómenos son sistemas en equilibrio siempre se cumple, tomen como ejemplo al sistema tierra como un sistema en equilibrio cuya intencionalidad es perpetuarse ( a pesar de los esfuerzos del hombre por destruirlo).

Un interesante enfoque le dieron los cibernéticos al concepto de sistemas cerrados y sistemas abiertos de donde se desprendieron dos interpretaciones significativas:
1) En los organismos vivos el estado final se puede alcanzar desde diferentes condiciones iniciales en formas diferentes. Actualmente conocido como método de exploración heurística en contraposición al método al algorítmico.
2) Los sistemas abiertos se comportan como si conocieran sus estados finales futuros. Tema central en la plantación, ya que necesitas saber o predecir que ira sucediendo según se avance. Ejemplo el ajedrez, es necesario analizar varias jugadas ante de decidirse por una. Los sistemas de pronósticos.

Este ultimo ha dado lugar a los métodos de encadenamiento de los objetivos a los hechos, resolver el problema partiendo del final. Siempre he tenido la impresión de los sueños primero se conciben partiendo desde el final hasta el principio, hay una intención final (alguna preocupación, dolor físico, deseo) que desencadena las acciones hasta los hechos iniciales y luego se reproduce el sueño como tal siguiendo los patrones de ese guión, aunque no de forma exacta, pueden introducirse cambios ante intromisiones externas, como ruidos, luces, olores, etc.

Algunos llegan a interpretaciones religiosas afirmando que ese es el destino que todos tenemos escrito.

Libro recomendado:
Inteligencia Artificial, el futuro del hombre

0

Padre de la Cibernetica

Hoy en día están de moda los términos Ciberpunk, Ciberespacio, Ciberarte…, términos que encierran en sí todo un movimiento integracionista en los que se confunde la fantasía del arte con los descubrimientos más novedosos de la ciencia. Pero, ¿cuál es su origen?

En 1948, el matemático norteamericano Norbert Wiener, quien se encontraba en ese momento en una situación monetaria precaria, decide escribir un librito al que tituló: “Cybernetics, or control and communication in the animal and the machine”. El que, para asombro del propio autor, se convirtió pronto en un best seller e inició uno de los movimientos más espectaculares del mundo científico.

La Cibernética no debe verse ni como una ciencia, ni como una disciplina; sino como un movimiento de ideas que trató de romper con la estrechez de los conocimientos propios de cada disciplina. El movimiento cibernético demostró que las barreras que existían entre la matemática, la biología y la electrónica, por solo citar tres de las más beneficiadas, eran superables y encontró sorprendentes analogías entre ellas.

Wiener. quien eligió este término en homenaje al físico inglés Clarence Maxwell por haber definido en 1868 los mecanismos de retroacción, no podía imaginarse que mucho antes el filósofo griego Platón, se dio gusto utilizando el término Kybernetike para referirse al arte de la navegación como timonel, ni que muchos años después en 1834, otro brillante físico, el francés Andrés Ampere, utilizó el término Cibernética como el arte de gobernar en política.

Nada de esto resta mérito a la labor de Wiener como padre indiscutible de la Cibernética, aunque él mismo reconoce a Leibniz como su precursor por sus ideas, entre ellas la de descubrir un lenguaje del pensamiento basado  en el arte de la combinatoria que permite a través del lenguaje de los números expresar cualquier idea o concepto fórmula de la verdad. Sin embargo, Wiener ignoró al español Ramón Llull, quien nació en Mallorca en 1235 y falleció en 1315. Entre sus muchos inventos, propuso una máquina lógica que permitiera obtener demostraciones de modo mecánico. Este proyecto despertó el interés de muchos científicos, pero también las más violentas críticas; entre ellas la del sabio inglés Francis Bacon, así como de otro inglés Jonatan Swift, quien en su libro “Los viajes de Gulliver” ridiculiza tanto a las ideas de Llul como a todos los que la consideran técnicamente realizable. ¿En qué consistía la máquina de Ramón Llul? Veamos la explicación dada por Kondratov en su libro “El intelecto electrónico”.

“La máquina lógica era un sistema de círculos concéntricos giratorios que permitían obtener demostraciones de un modo mecánico. Al saber que de los axiomas se deducen teoremas, lemas y fórmulas, Llul comenzó por tomar como axiomas de conocimiento seis categorías, con nueve elementos cada una. Por ejemplo, él formuló los principios absolutos: bondad, grandeza, eternidad, sabiduría, etc., designando cada uno de éstos con una letra especial, y los principios relativos: diferencia, acuerdo, contrariedad, comienzo, medio, fin, etc. El axioma virtudes englobaba elementos como justicia, templanza, fe, caridad y esperanza, mientras que el axioma vicios, incluía avaricia, gula, lujuria, soberbia, pereza, envidia, ira, falsedad, traición… Los círculos se unían entre sí y, una vez puestos en giro, permitían obtener combinaciones de símbolos y colores, originales fórmula de la verdad”.

Para muchos Leibniz tuvo conocimiento de las ideas de don Ramón y las asimiló y les dio su propia interpretación matemática. Si nos seguimos remontando más atrás, vemos que la Cibernética persigue la integración entre las ciencias (el sueño del diletante) y su objetivo era desarrollar máquinas que simularan el comportamiento animal, al menos éste fue su aporte más espectacular; recuerden las tortugas de Grey Walter, el ratón de Shannon, los zorros de Ducrop y otros muchos ciberanimalitos más. Entonces, qué mejor padre que Leonardo Da Vincy, quien en su época trató de hallar la analogía entre todas las ciencias.

El movimiento cibernético tuvo su época de oro en los años 50, cuando se hablaba que las máquinas, algún día, dominarían al hombre; se especulaba sobre los robots y se soñaba con construir un modelo del cerebro humano. Sin embargo, en el último congreso cibernético se cuestiona la utilidad de la Cibernética como disciplina científica, ya que carece de bases sólidas que la sustenten por sí misma: la Cibernética toma ideas de la biología, de la electrónica, de la matemática y se dedica a construir juguetes para probar ciertas conductas. Incluso para sugerir el comportamiento de un mecanismo o un animal desconocido partiendo de sus funciones de forma general.

Para los nuevos cibernéticos esto es demasiado difuso y proponen una nueva ciencia: la inteligencia artificial que se dedicaría al desarrollo de programas que tuvieran aptitudes inteligentes, y a partir de entonces los congresos de Cibernética se convierten en congresos de Inteligencia Artificial. Esto unido a la consolidación de la robótica también como ciencia independiente, dejaría a la Cibernética sin soporte científico.

¿Murió el movimiento Cibernético?

En los umbrales del siglo XX surgen nuevos movimientos integracionistas (esta vez de la ciencia con el arte) tales como Ciberpunk, Ciberarte…, sobre todo el Ciberarte, que mezcla el arte con tecnologías de avanzada tales como multimedia, realidad virtual, etc. La pregunta es si estamos en presencia de un nuevo movimiento de cibernéticos que vuelvan a revivir a aquel antológico movimiento de los años 50, que aglutinó a destacados matemáticos, neurólogos, siquiatras, comunicadores…
Esperermos que sí.

47

Durante años la actividad de la Inteligencia Artificial estuvo dedicada a las investigaciones teóricas y al desarrollo de experimentos a través de programas que demostraran “actitudes inteligentes”, con estos programas se pretend’ia que la máquina jugara ajedrez, demostrara teoremas matemáticos, etc.

No fue hasta los años 70 que surgió un nuevo paradigma en la Inteligencia Artificial “los Sistemas Expertos”, cuya función es desarrollar trabajos similares a los que desarrollar’ia un especialista en un área determinada, la idea no es sustituir a los expertos, sino que estos sistemas sirvan de apoyo a los especialistas en un “dominio” de aplicación específico.

Estos sistemas expertos son en lo esencial sistemas de computación basados en conocimientos cuyos componentes representan un enfoque cualitativo de la programación. Muchas personas pueden creer que un Sistema Experto (SE) es un sistema compuesto por subsistemas y a su vez estos por otros subsistemas hasta llegar a los programas, y que los SE se miden por la cantidad de programas que contienen. Sin embargo la cantidad no es lo que prima en los SE, si no la cualidad del mismo, esta cualidad está dada por la separación de las reglas que describen el problema (Base de Conocimientos), del programa de control que es quien selecciona las reglas adecuadas (Motor de inferencias).

Podemos decir que un Sistema Experto es una Base de Conocimientos (BC), una Base de Hechos (BH) y un Motor (o Máquina) de Inferencias (MI). Por otra parte estos sistemas no se miden por la cantidad de instrucciones o programas sino por la cantidad de reglas que hay contenida en su Base de Conocimientos.

Para desarrollar los sistemas expertos primero es necesario abordar un área de interés, dentro de esta área se seleccionan a los expertos, que son los especialistas capaces de resolver los problemas en dicha área. Por ejemplo el área de interés de las empresas de proyectos, son precisamente los proyectos y un especialista podría ser un arquitecto, un ingeniero civil, etc. Ahora bien, casi siempre estos especialistas, son expertos en un dominio específico y es sobre este dominio, donde poseen su mayor experiencia (Dominio de Experticidad), por ejemplo un Ing. civil especializado en cimientos.

Una vez seleccionado al experto o a los expertos y estos estén de acuerdo en dar sus conocimientos, comienza a jugar su papel el “Ingeniero de Conocimientos”, que es el encargado de extraerle los conocimientos al experto y darle una representación adecuada, ya sea en forma de reglas u otro tipo de representación, conformando as’i la base de conocimientos del sistema experto.

Formas de representación de los conocimientos:
Reglas de producción
Redes semánticas
Marcos (Frames).

La forma de representación más usada es por reglas de producción, también llamadas reglas de inferencias. Casi todos los sistemas expertos están basados en este tipo de representación, ahora nos ocuparemos de los sistemas basados en reglas.

Las reglas de producción son del tipo:
SI Premisa ENTONCES Conclusion (SI A ENTONCES B).

Donde tanto las premisas como la conclusión, no son más que una cadena de hechos conectados por “Y” o por “O”, de forma general sería:

SI Hecho1 Y/O Hecho2 Y/O… HechoN ENTONCES Hecho1 Y/O … HechoN

Los hechos son afirmaciones que sirven para representar conceptos, datos, objetos, etc. Y el conjunto de hechos que describen el problema es la base de hechos.

Ejemplo de hechos:
Juan es un estudiante
Juan tiene 8 años
el perro es blanco
a María le gusta el cine
Pedro prefiere la película
la edad de Luis es de 25 años
Pedro tiene un salario de 200 pesos

Una regla es una combinación de hechos que permite representar conocimientos y sacar inferencias de los mismos.

Ejemplo de reglas:

R1: SI Juan es esgudiante Y Juan tiene 8 años Entonces Juan estudia en la primaria .

R2: SI el perro es blanco Y el perro se llama Dinky ENTONCES el perro es de Juan.

R3: SI a Maria le gusta la pelicula Y Juan prefiere la pelota ENTONCES hacen falta e televisiores

Observe como partiendo de hechos conocidos que describen algún conocimiento se pueden inferir nuevos hechos (nuevos conocimientos), por otra parte la regla #2 (R2), no tiene porque ser totalmente cierta, existe la posibilidad de que el perro sea de Juan, quizás se puede afirmar, si fuéramos a cuantificar esa posibilidad, que el perro pertenece a Juan con una certeza de un 80%, y por último la regla #3 (R3) es dependiente del contexto, ya que aquí se supone que ambos viven juntos y que los programas de TV coinciden.

La Base de Conocimientos (BC).
Son el conjunto de reglas que permiten representar los conocimientos del dominio de experto donde cada regla aisladamente tiene significado propio. Normalmente los conocimientos son de tipo declarativo por lo cual la BC casi siempre es una descripción de los conocimientos del experto, por lo tanto requiere de algún mecanismo que obtenga las inferencias adecuadas para resolver el problema, alguien que seleccione las reglas y las vaya ejecutando, ese alguien es el motor de inferencias.

El Motor de Inferencias (MI) es un programa de control cuya función es seleccionar las reglas posibles a satisfacer el problema, para ello se vale de ciertas estrategias de control sistemáticas o de estrategias heurísticas.

Estrategias de control sistemático:
Encadenamiento hacia adelante o hacia atrás.
Búsqueda en profundidad o a lo ancho.
Régimen de control irrevocable o por tentativa.

Estas estrategias son de forma sistemática las cuales deben llevar a la solución del problema. Podemos decir que el control sistemático es un programa de control hecho de forma “algorítmica” que aplican una heurística de propósito general cuya función es una exploración exhaustiva y metódica de la base de conocimientos.

Estos mecanismos de control son muy generales y a veces resultan ineficientes ya que siguen una secuencia de búsqueda demasiado rígida, para resolver esto se idearon las estrategias de control heurísticas.

Las estrategias de control heurísticas son programas de control que utilizan una heurística más específica y su función es una selección más restringida orientada por las necesidades del problema. Estas estrategias actúan sobre el control sistemático y en ciertos casos toma el control y dirige la búsqueda hacia ciertos criterios rompiendo así el control sistemático, una vez logrado su objetivo le devuelve el control nuevamente al sistemático.

Estrategias de control heurísticas:
Orden de las reglas.
Mayor credibilidad en las reglas.
Menor número de cláusulas no instanciadas.
Mayor número de conclusiones en las reglas.

Podemos decir que un sistema experto, es un sistema informático que utiliza técnicas apropiadas para la representación de conocimientos y la manipulación de este, de forma tal que exhiba el comportamiento de un avezado especialista en un determinado dominio del saber.

Lectura recomendada

libro-portada-ia_El libro es una propuesta sobre el futuro del hombre y como será su relación con una tecnología que cada vez se hace más independiente y más ajena al destino del hombre como ser humano y es un esfuerzo por responder a las preguntas sobre cuál será nuestro futuro ante el acelerado desarrollo de las máquinas. Y que opciones tenemos.

Disponible en Amazon:
Inteligencia Artificial, el futuro del hombre