Inteligencia Artificial

Inteligencia artificial

0

En sus inicios la actividad de la computadora estuvo limitada exclusivamente al cálculo numérico. Si bien es cierto que las
máquinas fueron construidas principalmente para realizar operaciones aritméticas, ellas son capaces de ejecutar tareas no numéricas, como resolver problemas “lógicos”.

En realidad la computadora está dotada para procesar “símbolos”, el que estos fuesen utilizados como numéricos no fue mas que un hecho circunstancial.

Los primeros en comprender esta idea fueron los investigadores de la Inteligencia Artificial, especialmente el trío NeweLL, Show y Simon con su “logic theorist”. Este programa podía demostrar teoremas del cálculo proposicional y sentó las bases sobre las posibilidades de las computadoras para la manipulación de símbolos (no numéricos) y el tratamiento de estructuras de datos en forma de <>.

Siguiendo estas ideas John Mac Carthy a principio de los años 60 desarrollo el lenguaje LISP, primer lenguaje que rompió con los esquemas convencionales de programación. El LISP utiliza el tratamiento simbólico de la información representadas por listas, es el primer lenguaje que no hace diferenciación entre datos e instrucciones y se le considera el pionero de los lenguajes funcionales por su método de trabajo, similar a la resolución de funciones matemáticas.

El LISP por sus características de procesar símbolos ha sido utilizado durante muchos años como el lenguaje exclusivo de la Inteligencia Artificial.

Aunque la máquina está capacitada para manipular símbolos, esto no lo realiza de forma eficiente, de ahí que el LISP tenga que ser un lenguaje con interprete y surgiera la necesidad de máquinas LISP. Sin embargo no toda la responsabilidad la tiene la máquina, la preparación de las estructuras de datos para los cálculos no numéricos, se hace muy engorrosa y compleja.

Para los problemas no numéricos tales como; el ajedrez, la solución de teoremas, el diagnostico médico, los juegos, etc. La representación de la entrada, entiéndase las condiciones iniciales, requieren más que de datos, de una descripción del problema en si al igual que su programación, la cual carece de un algoritmo definido y se necesita la utilización de métodos de búsqueda heurísticos, o lo que es lo mismo una estrategia a seguir ante las posibles bifurcaciones que se irán presentando, o sea despreciar los caminos pocos fértiles.

Para muchos investigadores la solución de los problemas no numéricos consist’,ia en encontrar una heurística eficiente. Lo cual dío lugar a una gran diversidad de métodos heurísticos.

No fue hasta el surgimiento de los Sistemas Expertos que la representación del conocimiento, adquirió la importancia que merecía. Los Sistemas Expertos tienen como característica fundamental la separación de los conocimientos que le son necesarios (Base de Conocimiento) y el programa que permite manipular estos conocimientos (Máquina de Inferencia). Además de contar con los datos de partida que permiten la solución del problema planteado (Memoria de Trabajo).

En las aplicaciones convencionales desarrolladas en lenguajes imperativos de tipo FORTRAN, BASIC, PASCAL, etc. Los conocimientos están mezclados en el programa, donde los datos y las instrucciones reciben un tratamiento separado, lo cual obliga a procesar un orden de ejecución detallado de las acciones, este método recibe el nombre de procedural. En las aplicaciones no convencionales, tales como los Sistemas Expertos, (los cuales se desarrollan fundamentalmente, en lenguajes funcionales como LISP o en Programación Lógica como PROLOG).

Los conocimientos se dan en forma declarativa, sin indicar el modo de empleo, ni donde, ni cuando utilizarlos.

Los conocimientos son representados en forma de regla del tipo antecedente consecuente. donde en el antecedente viene la descripción de un hecho y en el consecuente la acción a ejecutar la cual produce nuevos hechos (cambios en la memoria de trabajo). Por su puesto que es más cómodo proporcionar a un sistema conocimientos en forma declarativa, ya que podemos dárselo en cualquier momento, suprimirlos o modificarlos con facilidad.

En los comienzos de los años 70 el francés Alain Colmenuer desarrolló el lenguaje PROLOG que también permite el desarrollo de aplicaciones en forma declarativa.

En general el PROLOG es un demostrador automático de problema, el cual utiliza una Base de Conocimientos en forma de reglas de inferencia deductivas (cláusulas de Horn), es decir sus reglas tienen como consecuente una única acción y la inferencias obte¬nidas son estrictamente lógicas (verdaderas o falsas), aunque puede parecer una limitación, esto no es totalmente justo, ya que PROLOG permite programar mecanismos inferenciales con lógica probabilísticas, dado que se trata de búsquedas en árboles con acumulación de evidencias.

El PROLOG como lenguaje surgido del cálculo de predicados, tomó las siguientes ideas de la lógica para su ejecución.
1) Un conjunto de axiomas o hechos.
2) Reglas de inferencias las cuales se resuelven por resolución y unificación.
3) El objetivo a demostrar, que serán las condiciones a unificar con las reglas.

También tomó del LISP el tratamiento de las listas para la repre¬sentación de estructuras complejas. Aunque el PROLOG tuvo su ori¬gen en la lógica matemática no fue una transposición exacta, y esta ligada a las discusiones que sostienen desde hace años los principales investigadores de la Inteligencia Artificial, los cuales están divididos en dos grandes grupos, de una parte Minsky quien propone estudiar los mecanismos del pensamiento humano y luego simularlo en la computadora.

Lo más importante para Minsky son los conceptos, o sea la inter¬pretación que se le puede dar a cada palabra en dependencia de un contexto dado.

El otro grupo encabezado por Mac Carthy (autor del LISP), afirman que la lógica matemática es el elemento característico para la representación del razonamiento y su implantación en la computadora, este grupo centra su atención en la formalización y en la estructura de los conocimientos más que en el sentido de los mismos.

La lógica desde la antigüedad se concibió como el método de descubrir las leyes del pensamiento, pero estas leyes siempre han estado restringidas al pensamiento científico y muy especialmente el matemático, quedando fuera el sentido común. Esta deficiencia es admitida por los defensores de la lógica, pero ellos consideran que la lógica es la única senda posible para desarrollar programas capaces de mostrar inteligencia.

Siguiendo los principios de la lógica de predicados, como ya se dijo, la programación lógica se construye sobre reglas de inferencia del tipo conclusión condiciones, algunas utilizadas como axiomas, hechos que no requieren demostración y otros como teoremas, hechos o conclusión que necesitan de condiciones a cumplirse, además del objetivo a demostrar que es quién representa el problema a resolver y desencadena la ejecución de las reglas, para su ejecución utiliza el modus ponens [(A => B),A] => B.

Analicemos el clásico ejemplo sobre Sócrates.

Todos los hombres son mortales
Sócrates es hombre

Sócrates es mortal

Su representación lógica será

Para todo X hombre(X) => mortal(X)
Existe Sócrates y hombre(Sócrates)

entonces mortal(Sócrates)

En PROLOG sería.

hombre(Sócrates) < —
mortal(x) < — hombre(x)
? <– mortal(Sócrates)

Donde hombre(Sócrates) es un axioma, regla que carece de condiciones, mortal(x) es un teorema, regla con la condición hombre (x) y mortal (Sócrates) es el objetivo a demostrar.

Ante la pregunta mortal (Sócrates) se buscará una regla que cumpla con la conclusión mortal, PROLOG tomará la primera regla, si esta no se cumple tomará otra regla. Cuando la regla se cumpla se unifica con el objetivo a demostrar (mortal) y se sustituye la variable “x” por Sócrates y se pasa a ejecutar las condiciones, en caso que alguna de las condiciones no se cumpla se da marcha atrás y se selecciona una nueva regla que unifique con hombre. En nuestro ejemplo la regla mortal está compuesta por una sola condición hombre (x) y para que se cumpla basta que exista una regla que tenga como conclusión a hombre (Sócrates),o sea “x” igual a Sócrates, si la encuentra se unifica con ella.

Como hombre (Sócrates) no tiene condiciones, es un axioma, cumple la condición hombre y como no existen más condiciones a cumplir, entonces se cumple la regla mortal (Sócrates), con lo que, se demostró el objetivo: Sócrates es mortal.

Una de las grandes ventajas del PROLOG es su potencia para con pocas reglas obtenerse variadas interpretaciones, a diferencia de los lenguajes imperativos donde cada hecho requiere de un procedimiento o lo que es lo mismo secuencias rígidas de pasos para su ejecución.

En PROLOG basta declarar algunas reglas que representen a los hechos.

Por ejemplo si tenemos las reglas:

Padre (Juan, Luis) <–

Padre (Luis, Jose) <–

Padre (Pedro, Luis) <–

Notar que todas las reglas carecen de condiciones (son axiomas).

Con estas tres reglas se puede buscar un abuelo o un hermano o un tío basta plantear como objetivos a demostrar

? <– Padre (x,y) Padre (y,z)

y encontraremos un abuelo en “x”

o ? <– Padre (x,y) Padre (x,z)

Donde “y” y “z” serán hermanos

o también ? <– Padre (x,y) Padre (x,z) Padre (y,s)

y obtendremos en “z” un tío

Observen que el objetivo puede ser una condición como en el caso de mortal (Sócrates) o varias condiciones.

Analicemos el objetivo abuelo. Para solucionarlo la máquina de inferencia tendrá que localizar un padre (x,y) entre las reglas padres y a su vez encontrar otra regla que tenga como padre a “y” de “z”. Las cuales serían padre Juan de Luis y padre Luis de José, lo cual implica que Juan es el abuelo de José.

También es posible definir una regla abuelo como sigue:

Abuelo (x,y) < — Padre (x,z) Padre (y,z)

y entonces la pregunta se reduciría a

? <– Abuelo (x,y)

El resultado a imprimir sería Juan, José.

Otra posibilidad sería saber de quién es abuelo Juan.

? <– Abuelo (Juan,x)

La regla anterior “Abuelo” está limitada a Abuelo por parte de padre, en PROLOG basta modificar la regla Abuelo y agregarlas reglas progenitor como sigue:

Abuelo (x,y) < — Padre (x,z) Progenitor (y,z)

Progenitor (x,y) <– Padre (x,y)

Progenitor (x,y) <– Madre (x,y)

De igual forma se puede agregar las reglas Tío, Hermano, Sobrino, Hijo etc., sin necesidad de alterar el programa.

Si quisiéramos saber donde trabaja Juan y quienes trabajan en computación, en lenguajes de tipo Pascal, cada caso sería independiente. En PROLOG basta definir las reglas trabaja (x,y), donde “x” es el nombre (Juan) y “y” el lugar (computación), solo se necesitarán dos preguntas trabaja (Juan,x) para el primer caso o trabaja (x, computación) para el segundo caso.

PROLOG es un lenguaje que se encuentra en sus inicios, para muchos su desarrollo es equivalente a las primeras versiones de FORTRAN. Como lenguaje de programación lógica debe aún recorrer un largo camino evolutivo, pero lo que nadie duda es que PROLOG, hasta la fecha actual, es el lenguaje que más se acerca a la forma de pensar del hombre y no es por gusto que los japoneses lo escogieron como lenguaje núcleo para su proyecto de la quinta generación de computadoras.

0

A partir de la crisis en la IA han surgido nuevas áreas de investigación de la IA tales como:
Redes Neuronales
Algoritmos Genéticos
Inteligencia Artificial Distribuida

Todas tienen en común un nuevo enfoque: la inteligencia es producto de la asociación, combinación o conexión de entidades independientes más simples (agentes, genes o neuronas), las cuales pueden tener alguna inteligencia o ninguna y producto de su interacción, el sistema presentaría un comportamiento inteligente. Lo cual nos lleva a un nuevo paradigma basado en la copia de los sistemas emergentes y evolutivos de la naturaleza, que de cierta manera es un retorno a la Cibernética, primera ciencia de carácter técnico inspirada en la naturaleza.

Las investigaciones en las RNA han estado inmersas en la creación de autómatas que aprendan a descubrir relaciones ocultas en los datos a la vez que puedan codificar y almacenar información en forma similar a como lo realiza el cerebro.

La neurocomputación utiliza como base la metáfora cerebral, pero no persigue como objetivo la construcción de máquinas absolutamente plausibles biológicamente, sino el desarrollo de máquinas útiles.

La capacidad intelectual depende de la acción colectiva de las neuronas, que realizan procesos en serie y en paralelo utilizando la retroalimentación y una organización molecular y laminar con alta capacidad de auto-organización y cooperatividad basado en una estructura jerárquica que permite el procesamiento local y centralizado en fases.

Vida artificial es el nombre dado a una nueva disciplina, nacida en los años 80, que estudia la vida natural mediante la recreación de fenómenos biológicos en la computadora y otros medios artificiales, con el fin no solamente de la comprensión teórica de los fenómenos bajo estudio, sino también de descubrir y realizar aplicaciones prácticas y útiles de los principios biológicos en la tecnología de la computación y en la ingeniería, como por ejemplo, en robots móviles, naves espaciales, medicina, nanotecnología, fabricación industrial y ensamblaje así como también en otros proyectos de ingeniería.

En la Naturaleza, la evolución, en particular la de los seres vivos, presenta algunas características que motivaron a John Holland a comenzar una línea de investigación en un área que eventualmente se transformó en lo que hoy se denomina Algoritmos Genéticos (AG). La habilidad de una población de cromosomas para explorar el espacio de búsqueda “en paralelo” y combinar lo mejor que ha sido encontrado en él por medio del mecanismo de sobrecruzamiento (crossover), es algo intrínseco a la evolución natural y trata de ser explotada por los AGs.

Desde el punto de vista biológico, el problema se centra en la imitación del mecanismo evolutivo de los seres vivos. De una población, tienen más posibilidades de sobrevivir y de tener descendencia aquellos organismos mejor adaptados al medio. De combinarse dos que tengan características deseables para aspectos distintos pueden surgir nuevos que hereden ambas peculiaridades.

La premisa de los AGs, tras la publicación del libro de Holland “Adaptation in Natural and Artificial Systems” y de los numerosos investigadores que los utilizan como metaheurística para optimización, es que se pueden encontrar soluciones aproximadas a problemas de gran complejidad computacional mediante un proceso de “evolución simulada”, en particular como un algoritmo matemático implementado en un ordenador.

En la Inteligencia Artificial Distribuida (IAD) se estudia la solución cooperativa de problemas por un grupo de agentes distribuidos. Tal cooperación se basa en que ninguno posee la información (experticidad, recursos, etc.) para resolver completamente el problema y donde un agente tiene como característica la de ser una entidad mas o menos autónoma, con conocimientos propios y de su entorno así como con la posibilidad de interactuar con dicho entorno y otros agentes.

A diferencia de los sistemas expertos, llamados por muchos “sistemas autistas” estas nuevas investigaciones se ocupan de que los mismos sean capaces de interactuar con el entorno o lo que es lo mismo que sean abiertos y flexibles.

Por otra parte, los agentes inteligentes se perfilan como una de las aplicaciones de la IA mas prometedoras debido a su estrecha relación con Internet (la tercera revolución de la informática). Sin crear falsas expectativas, debemos recordar los sistemas expertos y los agentes inteligentes dadas las ventajas que representan para el acceso a las redes. Ellos están llamados a cambiar nuestra forma de trabajo al permitir a los usuarios moverse en ambientes más cómodos y amistosos.

CONCLUSIONES

Hasta hoy, es posible desarrollar sistemas que se comportan ‘eficazmente’ en una materia específica, pero no que ’emulan’ a la inteligencia humana. La lógica es sólo una arista de la misma: el sentido común, razonamiento no monótono, reconocimiento y otros procesos ‘inteligentes’ aún no están totalmente resueltos.

Los programas de ajedrez son una demostración palpable de lo que podría llamarse una inteligencia basada en la fuerza bruta, dado que su método consiste en la velocidad de cálculo, lo cual le permite buscar en grandes espacios y procesar una cantidad enorme de información, velocidad de procesamiento que supera ampliamente la del cerebro humano. Muchos creen que la rapidez creciente en el cálculo de las computadoras, que no parece tener limites, debe conducir al surgimiento de las llamadas máquinas inteligentes, afirmación sustentada en que las computadoras al poder valorar más variantes de un problema, ya sea el juego de ajedrez, un cálculo de ingeniería, un diseño industrial o un diagnóstico mecánico, será capaz de alcanzar soluciones más rápidas y eficientes, relegando la de los humanos a un segundo plano. Este argumento se fundamenta en el auge acelerado que se evidencia en el hardware de las computadoras, mientras subestima el desarrollo del software e ignora las posibilidades del cerebro.

Actualmente, la ciencia deja de encerrarse en si misma y se fija en lo que le rodea, comprende que la mejor manera de entender cómo funciona algo en un ser humano es entenderlo primero en los animales más simples. Es así que la ciencia descubre las propiedades emergentes de la inteligencia, como resultado de la interacción compleja de sencillos elementos y emula con los procesos genéticos evolutivos en la búsqueda de mejores soluciones a problemas realmente complejos.

La Inteligencia Artificial ‘convencional’ con sus intentos de modelar matemáticamente los procesos de razonamiento, no ha podido alcanzar el sueño de sus creadores, mucho menos los seguidores de la denominada IA ‘fuerte’, quienes han pretendido convencernos de que seremos sustituidos por máquinas pensantes. Comienza una nueva era dentro de la Inteligencia Artificial. El hecho de mirar hacia la naturaleza posibilitará al hombre un avance en el camino de lograr simular verdaderamente, la inteligencia humana.

0

Los primeros intentos de la inteligencia artificial (IA) se fundamentaron en las búsquedas heurísticas. Se creía que el hombre resolvía todos los problemas a través de métodos heurísticos y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos de computación. De ahí los esfuerzos por hallar un algoritmo general basado en los principios heurísticos que fuera capaz de resolver cualquier tipo de problema. Ejemplo de ello fue el GPS (solucionador general de problemas) con el cual se podía demostrar cualquier tipo de teorema matemático, pero era incapaz de resolver problemas de carácter elemental que requieran un mínimo de sentido común. Este fracaso llevó a los investigadores a la conclusión que la heurística no lo era todo y que si el hombre resolvía los problemas era porque poseía los conocimientos necesarios para darle solución.

Lo que dió lugar a la explosión de los sistemas basados en conocimientos más conocidos como sistemas expertos los cuales debido a la estrechez de su dominio de solución de los problemas, no cumplió con las expectativas de los usuarios. Ello trajo como consecuencia la crisis del paradigma simbolista dentro la IA lo que originó nuevos paradigmas siendo los más importantes los basados en el conexionismo y los basados en la cooperación. Siendo interés nuestro los últimos ya que son los que están relacionados con la cooperación entre agentes inteligentes ajustándose este modelo a la estructura de una organización inteligente.

Otro de los intentos de la inteligencia artificial fue tratar de comprender los estados mentales a través de “mundos de juguetes”, producto del desconocimiento existente sobre la naturaleza de la inteligencia y, por otro lado, existía la creencia de que lo aprendido en esos dominios de juguete se podría extender sin dificultades a problemas más complicados pero debido a la complejidad de los problemas del mundo real estos no pueden capturarse en modelos reducidos y por tanto deben plantearse directamente.

Crisis de la IA:

La Inteligencia Artificial se ha visto siempre como una ciencia teórica, desligada de la realidad, mientras para otros son métodos que permiten investigar el cerebro. Pero, en realidad, ¿cuales han sido sus logros? ¿Cómo ha influído en la comprensión de la mente humana?

La IA parece irreconciliable si la analizamos a través de sus tres vertientes:
Estudio de la mente humana.
Sistemas informáticos inteligentes.
Sistemas comerciales basados en las técnicas de la IA

Estudio de la mente: Descubrir los enigmas de la mente humana, donde la máquina es utilizada como laboratorio para verificar las teorías.

Sistemas informáticos: analizar las técnicas informáticas de simulación del comportamiento inteligente

Sistemas comerciales: la máquina es una herramienta que a través de programas inteligentes servirá al hombre en sus tareas diarias.

Cada uno de estos métodos niega los progresos del otro, y en algunos casos considera que no tiene nada que ver con la Inteligencia Artificial.

De acuerdo a estos enfoque surgen tres áreas de investigación y desarrollo de la Inteligencia Artificial.

Estudio de la mente Ciencia cognoscitiva.
Sistemas informáticos  Máquinas inteligentes.
Sistemas comerciales  Ingeniería del conocimiento

Estudio de la mente:
Se considera una ciencia natural que investiga sobre la mente que trata de comprender los mecanismos de la creatividad del ser humano apoyándose en las computadoras como soporte del pensamiento de este grupo se desprenden dos grandes ideas que han llenado de promesas las investigaciones de la IA: la IA fuerte y la IA débil.

La Inteligencia Artificial fuerte:
La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio, el cerebro se considera un soporte más.

En cambio para la IA débil (menos radical que la anterior, y también más extendida desde el fracaso del enfoque idealista de los primeros años) computación no supone consciencia, y la simulación artificial de actividades mentales en ningún caso da origen a fenómenos mentales como dolor, reconocimiento, entendimiento o intencionalidad. No obstante se acepta la posibilidad de una simulación de la mente que suponga identidad funcional, aunque nunca identidad estructural.
Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.

Sistemas informáticos:
A este grupo no les preocupa tanto las cuestiones filosóficas, aunque su afiliación esta dentro de una IA débil. Para ellos la meta es construir máquinas más perfectas, aprendiendo a representar y manipular el conocimiento sobre el mundo real mediante una computadora y no les preocupa en lo más mínimo si la forma de pensar de las máquinas está de algún modo relacionada con la forma humana de pensar.

Para estos investigadores la máquina es el tema de su investigación, la cual es vista como un todo (soft y hard) y se pretende que esta como tal alcance niveles de inteligencia, posiblemente no alcanzados por el hombre, cada vez más avanzados. Y se especula sobre la posibilidad de que la máquina sustituya al hombre, dada las posibilidades ilimitadas de la misma.

Las mayores aportaciones al campo de la IA se debe a este grupo en temas tan importantes como: la robótica, las tecnologías del conocimiento, la IA distribuída, máquinas para lisp, etc.

Sistemas comerciales:
Se elaboran aplicaciones para resolver problemas que antes eran competencia sólo de los humanos. Son los especialistas de computación que se dedican a abordar a través de algoritmos tareas poco estructuradas con fines prácticos, casi siempre utilizando estructuras de datos complejas.

Se puede ver como rama de la ingeniería dedicada a crear productos comerciales. sobre todo sistemas especializados. Por ejemplo los sistemas expertos (los cuales serán tratados en el tema 3).

Cada enfoque crea una filosofía de trabajo que hace incompatible la comunicación entre cada grupo de investigadores, desde sus “creencias” entre MENTE, MAQUINA Y USUARIO. Incluso hasta la forma de ver la máquina cambió para cada uno.

Ya pasó la época en que la IA se veía como una ciencia mística cargada de amenazas, algunos pensaban que los sistemas expertos sustituirían a los especialistas, y hoy con un enfoque más maduro sin falsas expectativas, recuerden el proyecto japonés de la 5ta. Generación, las técnicas de IA se irán abriendo paso de forma imperceptible, es más, todo indica que la inteligencia se irá ampliando y que de la cooperación entre humanos y sistemas informáticos inteligentes surgirán las bases de las sociedades basadas en el conocimiento.

De ahí que la IA abandone los sistemas autistas (encerrados en si mismo) para dar lugar a sistemas abiertos que comparten información de forma inteligente, a su vez que permite la combinación de diferentes paradigmas de representación del conocimiento como los basados en reglas, los marcos (frames), los guiones. Y surjan nuevos temas de investigación tales como:
– La formalización del sentido común.
El aprendizaje.
La integración de diferentes paradigmas de inteligencia.
El desarrollo de arquitecturas cognoscitivas completas.

Mientras la Inteligencia Artificial se desangra en pugnas internas y en definir que es y que no es Inteligencia Artificial, en la computación convencional el hardware marcha a paso acelerado en la construcción de máquinas cada vez más rápidas, con más memoria y más posibilidades de cálculos simbólicos, que se pronostica alcanzará la creación de máquinas inteligentes a corto plazo sin necesidad de la Inteligencia Artificial.

0

En sus años de consolidación como ciencia la IA se dedicó a aquellos problemas que estaban relacionados con la inteligencia y abordo temas tales como la solución de problemas, la demostración de teoremas y los juegos. Conforme las investigaciones de IA progresaron, aparecieron nuevas áreas, tales como la percepción (visión y habla) comprensión del lenguaje natural y el aprendizaje automático.
La percepción del mundo que nos rodea es un elemento crucial para nuestra supervivencia. Dichas tareas son difíciles ya que incluyen señales analógicas (previas a las digitales); estas señales suelen contener bastante ruido, aunque normalmente se percibe a la vez una gran cantidad de objetos (algunos de los cuales pueden estar parcialmente tapados por otros).

La habilidad de utilizar el lenguaje para comunicar gran variedad de ideas es quizá el aspecto más importante que separa a los humanos del resto de los animales. La comprensión del lenguaje hablado es un problema de percepción difícil de resolver por las razones ya explicadas. Es posible, sin embargo, restringir el problema al lenguaje escrito. Este problema, normalmente denominado comprensión del lenguaje natural, es aún extremadamente difícil. Para poder comprender frases sobre un cierto tema, es necesario no sólo poseer un conocimiento amplio sobre el propio lenguaje (vocabulario y gramática), sino también manejar el suficiente conocimiento sobre dicho tema para reconocer las suposiciones no expresadas en un texto.

Además de estas tareas de la vida diaria, mucha gente puede también realizar tareas más especializadas en las cuales es necesaria una cuidadosa adquisición de experiencia. Son tareas como el diseño en ingeniería, los descubrimientos científicos, los diagnósticos médicos y la planificación financiera. Los programas que pueden resolver problemas sobre dominios también están bajo la tutela de la IA.

Otro campo importante donde la IA ha tenido éxito es en la simulación de las formas de trabajar, de abordar y de resolver los problemas en aquellos ramas de la actividad humana donde la experiencia y la experticidad juegan un papel predominante, dando lugar a los denominados Sistemas Expertos.

BREVE HISTORIA DE LA INTELIGENCIA ARTIFICIAL

La historia de la Inteligencia Artificial podemos enmarcarla en tres grandes etapas:

Años 50 70: Era Romántica
Años 70 90: Era Pragmática.
Años 90 actualidad: Era Realista.

Era Romántica.

Esta época estuvo dominada por los métodos heurísticos, se pensaba que el hombre resolvía todos los problemas por medio de ellos, a la vez que la tendencia, podemos decir filosófica, era la de una IA fuerte, mientras se iniciaba la revolución de la informática y daba paso a que los centros de investigación estuvieran dotados de potentes computadoras.

Con la heurística se pretendía resolver aquellos problemas poco estructurados en los que no existía una secuencia de pasos que nos llevara desde un estado inicial a uno final. Estos problemas (heurísticos) requerían criterios de selección que permitieran escoger uno de los posibles caminos que conducen a la solución. También se elaboraron programas para juegos que van desde los tan complejos como el ajedrez, pasando por el de damas, hasta los más sencillos como el tic tac toe. Este último, dada la velocidad actual de las computadoras es posible resolverlo a través de una exploración exhaustiva. Un caso interesante fue el programa de jugar damas que llegó a derrotar al campeón de esos tableros.

Múltiples progresos se desarrollaron durante esos años y fueron delineados los campos fundamentales que conformarían la nueva rama de la Informática (ver tabla 1).

El apoyo recibido se contó en el orden de millones de dólares con el objetivo de desarrollar y construir máquinas inteligentes. Por ejemplo, en 1963, el Gobierno de Estados Unidos destinó 2,2 millones al MIT para ser utilizados en el desarrollo de investigaciones en la Inteligencia Artificial.

El desarrollo de lenguajes de y para la IA entusiasmó a investigadores y empresas a la vez que se comenzó la construcción de estaciones de trabajo especializadas en IA. A mediados de los años 70 se desarrolló en el Laboratorio de IA del MIT una de estas máquinas dirigida a apoyar y facilitar las investigaciones. En ellas el lenguaje de máquina es el LISP. Varios sistemas comerciales fueron elaborados por otras empresas.

En esta época se magnificaron las potencialidades de las investigaciones y alcances de la Inteligencia Artificial, los innegables avances, el rápido crecimiento de las diferentes ramas que la integran y el avance tecnológico conllevaron a que los investigadores se erigieran en ‘profetas’, y al interpretar los indiscutibles logros de esta nueva ciencia pronosticaran el inminente desarrollo de sistemas INTELIGENTES, capaces de sustituir al hombre no sólo en tareas burdas y repetitivas, sino en el campo del pensamiento, el razonamiento y la creación. Varios de ellos predijeron desde mediados de siglo que a finales del mismo ya existirían máquinas ‘inteligentes’.

Era Pragmática

Dadas las falsas expectativas del enfoque heurístico, que pretendía hallar un algoritmo capaz de resolver todos los problemas, y su agotamiento como paradigma de la IA, los investigadores comienzan a formularse una nueva metodología basada en los conocimientos, porque en realidad, el hombre resuelve los problemas debido a que aplica su saber. Este nuevo enfoque, en lugar de partir de lo general a lo particular, se debía tratar de resolver los problemas particulares, utilizando conocimientos.

Marcada por MYCIN y desarrollada en la Universidad de Stanford, comienza la década de los Sistemas Expertos orientados al diagnostico de enfermedades de la sangre, primer método que introduce el razonamiento con incertidumbre, permite comenzar la etapa de formalización de estos sistemas y conduce al desarrollo de herramientas de estructuras generalizadas o Shells (‘concha’) y por PROSPECTOR, dirigido a la evaluación de prospecciones geológicas e identificación de yacimientos minerales, el cual impactó por contradecir a los expertos y señalar una zona rica en molibdeno valorada en millones de dólares.

Si anteriormente la IA solo se difundía dentro de los laboratorios, con los SE, irrumpe en el mercado y da lugar a una explosión de aplicaciones en casi todos los campos del saber. Este hecho recibió el impacto directo de la segunda revolución de la informática: las computadoras personales (PC), que fue lo que en fin de cuentas permitió, que los SE se difundieran masivamente.

Debido a su matiz comercial, los SE no fueron muy bien acogidos por los investigadores puros, pues estos sistemas eran considerados como hijos bastardos de la Inteligencia Artificial. No obstante muchos científicos abandonaron sus laboratorios para ir a desarrollar SE, y dar así origen a lo que muchos llamaron la IA aplicada con objetivos muy definidos: elaborar sistemas que fueran capaces de solucionar problemas propios de un experto para un campo específico.

Todo ello trajo como consecuencia que los SE invadieran el espacio de la informática y numerosas empresas de alta tecnología, mientras los gobiernos de EE.UU. y Japón comenzaron a invertir millonarias sumas en las investigaciones de la IA y miles de aplicaciones se realizaron y actualmente se utilizan.