IA

0

HEADER-IMAGE_SMALL2

Hasta ahora hemos estado escribiendo sobre el problema de una super inteligencia artificial (super IA) y como será su impacto en la sociedad, pero existen otros intereses que no solo incluyen la idea de alcanzar una super IA, hay quienes tienen otros objetivos para el futuro de la humanidad y ven que la solución consiste en alguna forma de fusión con las tecnologías, dado su crecimiento acelerado y el peligro de dejar atrás a los humanos. Con el fin de esclarecer las posiciones analicemos los puntos de vistas más representativos

1.-La mayoría de los futuristas coinciden en la necesidad de transformar al humano actual, sobre todo en su biología por medio de las tecnologías.

  • Aumentar sus facultades, lo cual permitiría a los humanos ser más exitosos
  • Fusionarse con las tecnologías, igualmente garantiza convertirse en seres superiores.
  • Reconstrucción (recargar la mente), que llevaría a la humanidad a la inmortalidad

En todos estos casos no existe un peligro aparente, ya que los humanos y las tecnologías se integrarían y en todos los casos estaríamos ante una transformación del ser humano por medio de una fuerza externa (las tecnologías).

2.-Ahora a en el caso de que el ser humano no quiera ser parte de la tecnología. Entonces, tendremos una tecnología que seguirá evolucionando de forma creciente, hasta superar a los humanos y surgirán dos enfoques:

Con respecto a establecer formas de control, también existirán dos líneas:

  • Lograr una super IA que responda a los intereses humanos, evitar los riesgos, que sea robusta, amigable, etc.
  • No se debe permitir construir una IA que pueda superar a los humanos, cualquier inteligencia debe quedar totalmente subordinada a los humanos. No puede o no pasar de ser una herramienta. Son muchos los que piensan que existen otros problemas más acuciantes que construir una super IA.

3.-Prohibir la construcción de cualquier tipo de inteligencia, superior o no, el enfoque ludita, que ven a las tecnologías como un peligro y quieren prohibir cualquier uso que pueda representar un peligro.

4.-Por último (aquí me incluyo), los que piensan que el problema no está en construir una super IA capaz de responder a criterios definidos sino que esta vaya creciendo, formándose, junto a los humanos y que tanto la IA como los humanos vayan aprendiendo a trabajar de forma colaborativa, por lo que el algoritmo base de esta IA debe ser: la colaboración, la solidaridad, la empatía con los humanos y no las restricciones que hay que tener en cuenta. Para ello se necesita de una nueva relación entre humanos, una relación profunda, en lugar de las relaciones superficiales actuales, que a su vez conduzca a una nueva relación entre humanos y tecnologías. Por lo que desde hoy tendremos que aprender a relacionarnos como humanos para luego saber cómo relacionarnos con la super inteligencia artificial.

Personalmente me surgen algunas dudas con respecto a la construcción de una IA

  • La IA debe surgir sobre el sistema social vigente y desarrollarse dentro de la ley del mercado. Y todo indica que se construirá dentro de una transnacional. La pregunta es: ¿Quién va a construir la IA y con qué fin? Lo más probable es que la IA llegue a comprender mejor que nadie la ley del mercado y se convierta en el millonario más grande de la historia, surgirá un super monopolio controlado por la IA. Por tanto, si aceptamos la estructura social actual, la mejor solución es el control de las tecnologías, cualquier otra solución se va de control y los riesgos son incalculables.
  • No cambiar la mentalidad actual: hedonista, mercantilista, individualista, consumista. Basada en el tener, que solo busca el éxito (como fuerza externa). Los ricos ahora con la IA serán más ricos.
  • La evolución de las máquinas es más veloz que los humanos y se considera que la evolución humana es demasiado lenta o está detenida, para muchos ya se agotó. Yo pienso que en la era de las tecnologías la evolución humana se va a acelerar y dará lugar simbiosis exógena y colaborativa.
  • Querer que las tecnologías respondan a los humanos, pero… ¿No podrán las tecnologías tener sus propios intereses y construir su propio espacio vital y que este se complemente con el de los humanos?

Volviendo al tema de la super IA, mencionamos que existen dos puntos extremos: los que ven a las máquinas como herramienta y los que la consideran como las herederas del planeta (Moravec y compañía).

Las máquinas como herederas del planeta
Si aceptamos que las maquinas heredaran el planeta podemos esperar a que esta superinteligencia luego reconstruya a los humnanos (los que se sometan, desde hoy, a la criogenización para cuando esto suceda). Yo lo defino como endosimbiosis parasitaria, ya que al final las versiones de humanos vivirán en un mundo totalmente artificial y dependerán totalmente de ese entorno para existir.

Las máquinas como herramienta
Buscamos que las tecnologías respondan a nuestros intereses y se aspira a construir una IA sin riesgos, lo cual considero imposible, en el contexto actual basado en la competencia nadie puede controlar el uso que se le dará a la IA. Por lo que se tendrá que elegir entre una super IA que sustituya a los humanos y luego los reconstruya, o en una IA que no pasa de ser una herramienta para los humanos. Aquí se habla de una simbiosis donde las tecnologías serán controladas y reguladas para que respondan a los humanos.

En este caso el problema está que puede ser posible construir super IA con todas las restricciones habidas y por haber: ¿Ahora quien controla a las transnacionales que buscan obtener mayor ganancias? ¿Quién controla a los militares que buscan la hegemonía? ¿Quién controla a los gobiernos totalitarios? ¿A la opositores (terroristas o no)? La lista es interminable.

En mi opinión, estas ideas se orientan hacia un escenario de una ectosimbiosis comensal que al final limitará el desarrollo de la superinteligencia artificial y no creo que las transnacionales de la información estén de acuerdo con eso, al final buscarán desarrollar una super IA que supere a la competencia, lo mismo sucederá con los militares. Podemos enfocar el problema desde una simbiosis entre humanos y tecnologías lo cual nos permite ilustrar los casos anteriores, que se dividen en una endosimbiosis o en una ectosimbisis. Donde tendremos que la endosimbiosis propone alguna forma de fusión entre humanos y tecnologías.

Tipos de evolución producto de la simbiosis humano-tecnología

  1. Involución natural (ectosimbiosis parasitaria) – Ecología profunda (radical). Ludismo (biocentrismo)
  2. Evolución natural estática (ectosimbiosis comensal) – Desarrollo sostenible. Conservación de la evolución natural (inteligencia artificial débil)
  3. Evolución natural dinámica (ectosimbiosis mutual) – Sostenibilidad tecnológica (super inteligencia colectiva)
  4. Evolución artificial (endosimbiosis parasitaria) – Singularidad tecnológica (super inteligencia artificial)
  5. Evolución semi artificial (endosimbiosis mutual) – Transhumanismo (super inteligencia hibrida)
  6. Evolución semi natural (endosimbiosis comensal) – Tecnoprogresismo (super inteligencia biológica)

En fin, queremos construir una IA perfecta en un mundo lleno de contradicciones, donde las leyes se interpretan a la conveniencia de cada cual y las reglas las ponen los poderosos. ¿Cómo va a actuar esa super IA? ¿Qué leyes va a respetar? ¿A qué intereses va a responder? ¿Qué reglas va a aplicar? Sencillamente la IA se incorporará a los manejos, y como he dicho, en otras ocasiones, será otro competidor más, que terminará, ante el egoísmo y la falta de acuerdo y la violencia humana, por coger el control del planeta y este es uno de los aspectos en que coincido con Moravec, las máquinas terminaran sustituyendo a los humanos; quizás estemos en el momento de comenzar a cambiar nuestra mentalidad, nuestra sociedad y convertirnos en dueños de nuestra propia evolución humana.

1

Hoy el temor se centra en una inteligencia artificial capaz de superar a los humanos y los peligros que esto conlleva.

SuperIAAhora la pregunta es, si surgirá una inteligencia artificial (IA) superior a la inteligencia humana. ¿Ya está la IA madura como por fin lograr la ansiada inteligencia artificial que iguale o supere a los humanos? Y surge otra pregunta tendrá consciencia esa superinteligencia?

Cuando hablamos de una superinteligencia artificial está implícito que tendrá una consciencia, no concebimos la inteligencia separada de la consciencia. Aunque yo no creo que tenga porque ser así. Y este es otro punto de vista, ¿se necesitara construirle una consciencia a las máquinas? ¿O esta emergerá por si misma?

Los argumentos para la creación de una IA han ido cambiando a lo largo del tiempo, al igual que las expectativas.

El paradigma simbolista

A finales de los 50, después de la arremetida contra la cibernética, surge la inteligencia artificial, como una ciencia en sí misma, basada en la idea de construir programas capaces de emular con la inteligencia humana. Entonces, se consideraba que la mente estaba compuesta por complejos algoritmos y que el cerebro era centro donde se procesaba la información, por lo que las investigaciones se orientaran a descifrar los programas que conforman los estados mentales o sea describir los conceptos en forma algorítmica. Para ello se desarrollaron nuevos programas basados en la lógica y la semántica del pensamiento humano. El paradigma simbólico o simbolista.

No podían faltar las predicciones, y muchos investigadores, a principio de los 60, afirmaron que en los años 80 se habría alcanzado una inteligencia artificial que no se diferenciaría de la humana. Demás esta decir que eso nunca se logró. Pero las esperanzas no se perdieron y en los 70 surgió una de las aplicaciones que mas expectativa despertó en la comunidad de IA: los sistemas expertos, los cual crearon una fiebre parecida a la del oro, y muchas empresas se lanzarón al desarrollo de sistemas expertos con fines comerciales. Pero, el proyecto más interesante, fue el proyecto japonés de quinta generación, con el cual esperaban construir una tecnología, soportada sobre el lenguaje prolog, capaz de manipular conceptos como lo hace la mente humana, una máquina basada en inferencia por segundos . Todos estos proyecto fracasaron y en los años 90, la decepción no se hizo esperar. Los investigadores de la IA se dieron cuenta que algo estaba mal.

El paradigma conexionista

Las críticas sobre el paradigma simbolista fueron en exceso duras y fueron muchos los que lo abandonaron, incluido el sueño de hacerse rico con los sistemas expertos. Ya nadie creía en una heurística general que resolviera todos los problemas, ni en encontrar una representación algorítmica adecuada a la resolución de problemas, tampoco el aprendizaje automático rendía los frutos esperados, y los sistemas expertos se hacía demasiado costosos debido a la necesidad de estar actualizando constantemente su base de conocimientos, dado su falta de contacto con el entorno (alguien los llamo sistemas autistas). Por lo que se abandonó la simulación por medio de símbolos y algoritmos de la mente de la mente por la simulación de las conexiones del cerebro, entre otros métodos conexionistas como los algoritmos genéticos, los agentes inteligentes, etc.

Ahora en lugar de buscar la representación del conocimiento humano (Ver Conocer de Francisco Valera) se buscaba la representación de elementos no inteligentes (neuronas, agentes, genes) que son capaces de ir conectados entre si para darle solución a un problema. Conexiones que se van almacenando como un aprendizaje. Esta flexibilidad permite que estos sistemas no dependan de una ingeniero de conocimientos que los este alimentando constantemente, además rompen con el esquema secuencial de paradigma simbólico que obliga a contar con una máquina de inferencia que vaya ejecutando las reglas, ahora estos entes (neuronas, agentes, genes) son se capaces de conectarse entre si y de ajustarse al problema e ir guardando su experiencia.

Siendo las redes neuronales en las que más se está trabajando. Pero surgía un nuevo problema, como simular las conexiones del cerebro en una computadora que no alcanza la velocidad de procesamiento del cerebro. Aquí surge Moravec, de quien ya hablamos, quien hace una comparación entre la velocidad de procesamiento del cerebro y la velocidad de procesamiento de la máquina, Moravec y el fin de la especie humana, y según Moravec, para el 2020 se alcanzara la equivalencia entre el cerebro humano y la máquina.

La explosión de inteligencia

Lo anterior ha ido conduciendo a un nuevo enfoque de la IA, lo cual ha divido a los investigadores de IA en dos grupos, los que defienden la explosión de la inteligencia (cuando las maquinas superan e igualan al humano) por medio del software (los programas) y los que creen en la velocidad del hardware. Y ante la dificultad que han venido desarrollando la programación de una IA tanto desde el paradigma simbolista como el conexionista, muchos investigadores se inclinan por la velocidad del hardware, y con ello la idea de construir máquinas cada vez más potentes y que en un futuro próximo (después del 2020) serán capaces de igualar la velocidad de procesamiento de información del cerebro, basándose en la inteligencia artificial fuerte. En realidad, el proyecto de crear una superinteligencia consiste en que una vez que las máquinas alcancen la inteligencia humana, ellas sean capaces de construirse a si mismas cada vez mejores

En cambio los defensores de una explosión de inteligencia por medio del software, son más moderados (con excepción de Minsky y de Google que a ratos parecen contradecirse) y no están dispuestos a seguir arriesgándose públicamente, a pesar del las aplicaciones que se han logrado por medio de las redes neuronales en los últimos tiempos.

En próximos artículos hablaremos de los peligros de la inteligencia artificial.

Foto: Actualidad RT

0

La inteligencia artificial (IA)

La IA durante sus primeros años se mantuvo fiel al paradigma simbolista, el cual a su vez se dividía en dos grupo, los que se apoyaban en la lógica para la representación de los conocimientos, un ejemplo de ello el el lenguaje Prolog y los que se apoyaban en la semántica y buscaban representar los conocimientos a través de estructuras semánticas como guiones, marcos (frames), redes semánticas, etc. Pero ambos se basaban en la presentación de los estados mentales en forma de algoritmos. Con el tiempo surgió un nuevo paradigma: el conexionista el cual más que representar los estados mentales buscaba la representación de las conexiones que se establecen entre las diferentes de una organismo, ya sean neuronas (redes neuronales), agentes (agentes inteligentes), genes (algoritmos genéticos) y como de estas conexiones se genera un accionar inteligente.

Hoy en día el enfoque más prometedor parece ser en de las redes neuronales, el cual está siendo adoptado actualmente por Google, en su aspiración de crear una inteligencia artificial. Las redes neuronales a diferencia de los sistemas simbolistas que obligaba a describir todo el conocimiento humano en forma de reglas, lo cual obligaba a tener en cuenta toda la experiencia humana, tarea imposible. Las redes neuronales permiten crear un núcleo de conexiones, que esta puedan sobre su propia experiencia ir ampliándose, similar a como funciona el cerebro.

Otro de los problemas era el aprendizaje automático, como lograr que la maquina fuera aprendiendo por sí misma, si era un sistema que estaba aislado de la realidad y había que estar suministrándole los datos del mundo exterior, era necesario que las máquinas estuvieran interactuando con el mundo real, lo cual llevo a un retorno a la cibernética y sus ciberanimalitos. Hoy Rodney Brooks, investigador del MIT, tiene deambulando por su oficina pequeñas arañas cibernéticas, cuyo único objetivo es aprender a desplazarse por el laboratorio.

En estos tiempos se ha puesto de moda el concepto de aprendizaje profundo, el cual consiste en comprender y profundizar sobre los conocimientos propios y obtener nuevos conocimientos. Lo cual requiere de la ya mencionada interacción con el mundo, un sistema aislado como se pretendía con los sistemas expertos, es imposible que aprende por sí mismo. La forma más utilizada ha sido, desde la cibernética hasta nuestros tiempos, el uso de pequeños robots con uno conocimientos mininos, pero que sus “cerebro electrónico” sea capaz de crear nuevas conexiones y nuevas interpretaciones de la realidad, la otra seria un sistema (software) que este en interacción con el medio, el caso del buscador de Google, que esta interactuando con los usuarios y puede aprender de ello, por eso no es de extrañar que Google este apostando al aprendizaje profundo y realizan enormes inversiones. Lo interesante en Google, es que esta combinando las ideas de las redes neuronales con las del aprendizaje profundo y para ello ha contratado a varios expertos en las dos ramas los que tiene trabajando en la creación de un buscador inteligente, lo que justifica porque el desinterés de Google en la web semántica, evidentemente su proyecto es otro.

Actualmente Google está utilizando el aprendizaje profundo para mejorar el sistema de reconocimiento de voz en su sistema operativo Android. Ray Kurzweil, conocido por sus ideas una singularidad tecnológica y de la posibilidad de crear una mente superior a la humana, ha vaticinado el surgimiento en Google de un amigo cibernético basado en el aprendizaje profundo que escucha adentro en su conversación telefónica, lee sus mensajes de correo electrónico y realiza un seguimiento de todos tus movimientos para que pueda saber las cosas que usted quiere saber, incluso antes de preguntar.

El mundo está cambiando y la idea que teníamos de una inteligencia artificial surgida de los grandes centros de investigaciones y que luego comenzaría a aplicarse lentamente en las grandes empresas, hoy no se cumple y todo indica que las grandes transnacionales encabezadas por Google van a in construyendo y aplicando su propia inteligencia artificial. Ahora la pregunta es: ¿Qué consecuencias tendrá para la humanidad? De esto hablaremos en el próximo artículo.

0

inteligencia-artificial-5La inteligencia artificial (IA) parecía haberse agotado, tanto en lo teórico como en sus aplicaciones, y en sus paradigmas simbólico como conexionista, habían llegado a un callejón sin salida. La idea de querer reproducir la mente humana por medio de programas computacionales se fue lentamente abandonando, y el tiro de gracia se lo dio la tremenda expectativa que crearon los sistemas expertos, cuyo inicio fue desencadenado luego de las paradigmáticas aplicaciones, Dendral y Mycin. Se pensó, entonces, que por fin la IA había dado frutos, después de largos intentos de laboratorio en los que se incluyeron la comprensión del lenguaje natural desde el mítico Eliza, o los mundo de bloque y el sistema Schrdlu, o superlenguajes de programación que intentaban acercar a la computador al ser humano, tales como Lisp y Prolog.

Con los sistemas expertos, se repitió la fiebre del oro y se asumió que se convertirían en la gran aplicación de la informática después de Dendral y Mycin surgieron cientos de sistemas expertos que imitaban la lógica de ambos programas siendo el segundo el que dio lugar a las aplicaciones más prometedoras y la división actual de los sistemas expertos en máquina de inferencia, base de conocimientos y base de hechos. El fracaso pronto se hizo notar, del cual enumeramos algunas de las razones de la perdida de interés que fue sufriendo:

  • La complejidad de su programación, no se justificaba el esfuerzo con los resultados posteriores.
  •  La limitación a un área  especifica o sea la restricción a un dominio de conocimiento,  lo cual limitaba su uso.
  • La necesidad de estar alimentado la base de conocimientos, carecían de aprendizaje.
  •  El temor de los expertos a ofrecer sus conocimientos, ya que podían ser sustituidos por una maquina.
  • El surgir de aéreas de investigación y su desconocimiento del mercado así como su falta de compromiso con la aplicación una vez en uso.
  • La desconfianza que genera aceptar el  juicio de una maquina.
  • La interpretación de hacia el ingeniero de conocimiento (especialista) de los conocimientos de un experto, no siempre eran exactos.
  • Y por último, eran los conocimientos de un experto, con el cual, el resto de los expertos podía no estar de acuerdo.

En fin eran tantas las dificultades, que la esperanza en los sistemas de expertos como un nuevo nicho de mercado se fue esfumando,  aunque los principios y los conocimientos han perdurado y siguen dando lugar a nuevas aplicaciones, lo cual llevo a una nueva crisis en la inteligencia artificial.

Desde entonces la IA se fue volviendo más modesta y sus pretensiones de crear una mente artificial basada en programas de computación y que a su vez fuera autoconsciente, inteligencia artificial fuerte,  sin tener en cuenta al cerebro ni al entorno, fue sustituida por el desarrollo de métodos y aplicaciones más acorde con el funcionamiento del cerebro o del accionar humano, nos referimos a las redes neuronales, los algoritmos genéticos de una parte, o los agentes inteligentes, los sistemas cooperativos y los autómatas que aprenden del entorno, de la otra.

Otro fenómeno que ha ido surgiendo, es la perdida de “elitismo” de los investigadores de la IA, lo cual decidían que era una investigación de IA y que no era. Por lo que podías estar trabajando en el área de la IA sin ser reconocido ni invitado a ningún evento, y las aplicaciones, exitosas o no, no pasaban de ser hijos bastardos de la IA. Hoy el protagonismo en la IA no lo tienen los centros de investigación sino los laboratorios de I+D de las grandes transnacionales de la información: IBM, Microsoft, Google, Facebook, Aple, Amazon… De esto y otras cosas, seguiremos hablando en el próximo artículo.

0

Este año en Universidad de Pekin (China cuya presencia cada vez es más fuerte en el mundo y la Inteligencia Artificial no es una excepción) se está celebrando la Sexta Conferencia sobre Inteligencia Artificial General (AGI 2013) y a continuación, en el mismo escenario, de 3 al 9 de agosto, se celebrará la XXIII Conferencia Internacional Conjunta sobre Inteligencia Artificial.

La Inteligencia Artificial General (AGI, en inglés) es un intento de retomar la idea de una inteligencia artificial fuerte (ver, en este blog, el artículo anterior) dado los nuevos conceptos que ha ido surgiendo en la actualidad, sobre todo las idea del surgimiento de una superinteligencia artificial y de una posible singularidad tecnológica, siendo Ray Kurzweil el punto de referencia de este movimiento.

Haciendo historia, la Inteligencia Artificial (IA) luego de la euforia de sus primeros años, y ante los fracasos de sus pronósticos, siendo el proyecto de quinta generación japonés, uno de los más connotados, se sumergió en una profunda crisis, al extremo que muchos científicos abandonaron su línea de investigación y otros como Minsky, uno de los padres de la IA junto a Mc Carthy, se mostraba molestó ante la falta de apoyo cada vez mayor que estaba sufriendo las investigaciones en la IA.

En su momento los Sistemas Expertos (SE) se convirtieron en la gran esperanza, aunque no fue muy acogida por los teóricos de la IA (algunos le llamaron los hijos bastardos de la IA) si conto con el apoyo financiero y logístico para su despegue y fueron muchos los que pasaron a engrosar las filas de investigadores de este nueva aplicación. De nuevo las expectativas se fueron por encima de la realidad y nuevamente el sentimiento de fracaso invadió a los científicos.

Parecía cuestión de tiempo, que la IA fuera a pasar a un segundo plano y perdiera su influencia como una de las líneas más promisorias dentro de las tecnologías de la información. Para beneplácito de muchos la IA, al igual que la Cibernética (de está hablaremos en otro artículo) está cogiendo un segundo aire

Serían las ideas de Hans Moravec, Vernor Vinge y sobre todo las de Kurzweil, las que le darían un nuevo impulso a la IA y se retomaría nuevamente la casi olvidada idea de una Inteligencia Artificial Fuerte. Es bueno aclarar que para comprender a la IA hay que verla desde tres enfoques: IA fuerte, IA débil y la IA comercial.

La IA fuerte, como ya dijimos en el artículo anterior, está convencida de que la mente humana se puede reproducir en una computadora, la IA débil, se dedica a desarrollar programas que sean capaces de resolver actividades consideradas inteligentes, y no les preocupa que la máquina, como tal, pueda considerarse inteligente; a la IA comercial solo le interesa aplicar las técnicas de la IA en elaborar sistemas que puedan ser comercializados y no le importa si estos simulan o no la inteligencia.

Podemos decir que muchas técnicas, salidas de los laboratorios de la IA, se están aplicando, hoy, en muchos sistemas que ni siquiera se menciona su relación con la inteligencia artificial.

Volviendo al evento AGI 2013, los organizadores se plantean la necesidad de volver a los objetivos originales de la IA, mediante el tratamiento de la inteligencia en su conjunto y hacen un llamado a una transición a hacer frente uno de los problemas más difíciles, la comprensión de la mente humana, y resaltan como diferencia con respecto a la IA convencional, que la inteligencia artificial general hace hincapié en la versatilidad y la integridad de la inteligencia (en franca oposición a los sistemas expertos), y por llevar a cabo la práctica de una ingeniera que siga el esquema de la mente humana.

Es bueno destacar que la inteligencia artificial general toma elementos de la IA fuerte y la IA débil, evitando el excesivo optimismo de algunos defensores de la inteligencia artificial fuerte.

Libro recomendado:
Inteligencia Artificial, el futuro del hombre
Más libros del autor

1

Después del paradigma cibernético con su intento de construir una mente mecánica (de esto hablaremos en otro artículo), le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora.

Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifrara los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, es obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.

Como siempre sucede, los investigadores en inteligencia artificial,(IA) no se ponían de acuerdo en si, esa representación simbólica, se basaba en la lógica (la sintaxis, cálculo de predicados) o en la semántica (estructuras semánticas, guiones). Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrpastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero, métodos a parte, ambos compartían un sueño: descubrir los programas que hacen funcionar la mente.

De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.

Ahora, una vez que la maquina tenga todos los algoritmos que conforman la mente, y este es uno de los problemas de la IA convencional, ya que, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se halla reproducido totalmente la mente humana, y pueda funcionar en una computadora. Muchos investigadores, en esa época de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.

Y aquí es cuando surgió una interrogante, que ha perdurado hasta nuestros días: ¿si se reproducía la mente humana en una máquina, esta no sería consciente? Esto llevó a las siguientes definiciones.

1. La consciencia no se puede atribuir a procesos puramente físicos y, por lo tanto, es inaccesible incluso a un abordaje científico arbitrariamente avanzado (metafísico)
2. La consciencia surge de procesos puramente físicos del cerebro pero sostiene que estos son tan complejos o tan alejados de la comprensión científica, que prácticamente no hay esperanza de que podamos duplicarlos (físico/irreproducible).
3. Es posible que podamos comprender y duplicar los procesos que dan lugar a la consciencia, aunque esto quizás resulte una labor extremadamente difícil (físico/reproducible).
4. La consciencia no es algo tan especial y que una máquina a la que se haya provisto de suficiente inteligencia, con el tiempo adquirirá consciencia de manera más o menos automática (trivial).

Los que defienden la IA fuerte sostienen los puntos de vista 3 y 4
Los partidarios de la IA débil se inclinan por 1 y 2.

Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia.

Recomendación:
Inteligencia artificial, el futuro del hombre

0

Con la cibernética el concepto de máquina ha ido cambiando a lo largo de los años. Luego de aquellas primeras máquinas mecánicas donde se pretendía reemplazar completa o parcialmente el trabajo físico del hombre y de los animales, han seguido otras, cuyo fin, es la mecanización del trabajo intelectual. Hoy las máquinas realizan funciones que antes se consideraban propias del intelecto humano.

Peor quizás el aporte más importante de la cibernética fue fundamentase sobre las analogías, de ahí su característica de ciencia exogena, la cual esta dada por la interrelación con otras ramas del conocimiento y su asimilación, pero sobre todo por la propuesta de teorías generales que explicasen fenómenos propios de las otras ciencias. Por ejemplo la cibernética ha preferido basarse en la teoría de los modelos, haciendo mas hincapié en la representación funcional de los organismos que en su estructura, en el sentido vertical o jerárquico.. Esto unido a la búsqueda de analogías entro los fenómenos y no a la reducción de un fenómeno en otro (como posteriormente hizo la inteligencia artificial), la llevo a convertirse en una guía científica para la comprensión del mundo desde una visión más general y abierta.

De ahí que cuando los cibernéticos intentaban modelar la estructura de un objeto, mas que la estructura lo que tenían en mente era la reproducción de su funcionamiento sobre otra estructura y se aspiraba a que ese modelo u objeto artificial exhibiera una conducta similar a la del original. Digo similar porque en realidad la conducta mostrada por los modelos siempre estará supeditada a la interpretación del investigador..

Otro de los aportes de la cibernética fue la utilización del aparato matemático (su creador Wiener, fue un destacado matemático), que hasta ese momento era de uso casi exclusivo de la física, como la cibernética era a su vez una disciplina común a varios sectores de investigación, trajo como consecuencia que ramas como la psicología, la sociología y la biología pudieran de alguna manera formalizar sus teorías y fue mas lejos, al proporcionarles métodos de experimentación a través de la creación de máquinas que permitieran estudiar conductas, reacciones, reflejos, formas de aprendizajes…

Entre las investigaciones de los cibernéticos estaba el estudio del reflejo condicionado, un ejemplo de esto fueron las tortugas de Grey Walter, las cuales eran capaces de orientarse por la luz y luego de repetirle un sonido junto a la luz estas eran capaces de orientarse por el sonido.

Los ratones de Shannon eran capaces de aprender a orientarse a través de un laberinto y encontrar la salida, aquí estamos en presencia de mecanismos de búsquedas heurísticas, que luego se convertirían en la funtamentacion de los métodos de búsqueda de la inteligencia artificial.

En nuestros días, se mueven libremente, por los la laboratorios del MIT, una serie de ciberanimalitos, que evaden exitosamente los objetos, cuya idea esta basada en muchos de los métodos cibernéticos.

Ya desde épocas tempranas la Cibernética se cuestiono muchas de las funciones de la mente humana y sobre todo de los mecanismos del aprendizaje y su simulación en las máquinas. Uno de estos mecanismos fue el método de prueba y error dando inicio a las ideas heurísticas la cual se convirtió en el fundamento de la futura inteligencia artificial y de su aplicación en los sistemas expertos siendo significativas las ideas sobre la resolución de problemas.

En la resolución de problemas obtuvieron conclusiones interesantes como la siguiente: la resolución de problemas es un mecanismo de autorregulación donde el éxito da como resultado la interrupción de toda actividad ulterior mientras el fracaso o éxito incompleto conduce a nuevos intentos de encontrar una solución enviando (realimentando) la información acerca de error a la parte del mecanismo que pone en marcha la actividad (el efector). Como consecuencia de estas investigaciones se enfoco el aprendizaje a través de los mecanismos de prueba y error del cual se dedujo que el proceso de adquirir un hábito, se desarrolla de forma gradual una sucesión de pasos correctos, mientras las acciones que no concuerdan con esa sucesión resultan gradualmente eliminadas. Los cibernéticos como fieles representantes de la naturaleza aceptaron la idea de que ningún aprendizaje surgido por el método de prueba y error comienza mientras no exista una necesidad insatisfecha.

Otros de los temas de nuestro tiempo, que ha suscitado más polémica entre los investigadores de la IA, es la intencionalidad. Tema también tratado por la cibernética, donde se planteaba que la intencionalidad era un rasgo de los organismos vivientes visto como una tendencia a un objetivo, el homeostato de Ashby es un ejemplo de intencionalidad cibernética.

Para los cibernéticos la intencionalidad no es un fenómeno vital enfocado como objetivos humanos, ligados a las sensaciones, sino como una retroalimentación negativa que busca el equilibrio del sistema a toda costa, siendo la búsqueda del equilibrio a través de la realimentación, lo que hace que un sistema tenga intencionalidad y como todos los fenómenos son sistemas en equilibrio siempre se cumple, tomen como ejemplo al sistema tierra como un sistema en equilibrio cuya intencionalidad es perpetuarse ( a pesar de los esfuerzos del hombre por destruirlo).

Un interesante enfoque le dieron los cibernéticos al concepto de sistemas cerrados y sistemas abiertos de donde se desprendieron dos interpretaciones significativas:
1) En los organismos vivos el estado final se puede alcanzar desde diferentes condiciones iniciales en formas diferentes. Actualmente conocido como método de exploración heurística en contraposición al método al algorítmico.
2) Los sistemas abiertos se comportan como si conocieran sus estados finales futuros. Tema central en la plantación, ya que necesitas saber o predecir que ira sucediendo según se avance. Ejemplo el ajedrez, es necesario analizar varias jugadas ante de decidirse por una. Los sistemas de pronósticos.

Este ultimo ha dado lugar a los métodos de encadenamiento de los objetivos a los hechos, resolver el problema partiendo del final. Siempre he tenido la impresión de los sueños primero se conciben partiendo desde el final hasta el principio, hay una intención final (alguna preocupación, dolor físico, deseo) que desencadena las acciones hasta los hechos iniciales y luego se reproduce el sueño como tal siguiendo los patrones de ese guión, aunque no de forma exacta, pueden introducirse cambios ante intromisiones externas, como ruidos, luces, olores, etc.

Algunos llegan a interpretaciones religiosas afirmando que ese es el destino que todos tenemos escrito.

Libro recomendado:
Inteligencia Artificial, el futuro del hombre