alejandromadruga

Licenciado en Cibernética Matemática por la Universidad de la Habana, profesor de Inteligencia Artificial y Máster en Bioética. Trabaja como especialista en Ciencias Informáticas en Infomed. Investigador, escritor y divulgador de la ciencia. Diplomado en Comercio Exterior.
Trabaja en el área de la Inteligencia Artificial desde 1985, donde ha desarrollado varias aplicaciones destacándose el sistema experto para la selección de soluciones tecnológicas, premio nacional de las BTJ.
Fundador del taller literario Oscar Hurtado y de la revista i+Real en la que publicó varios de sus cuentos de Ciencia ficción. Se destaca preferentemente en el ensayo y la divulgación científica, pero su obra incluye la narrativa de ciencia ficción y la poesía. Sus narraciones “Casa muerta” y “Cazadores de imágenes” han sido muy referenciadas en Internet.
Ha impartido cursos sobre inteligencia artificial, sistemas expertos y programación en prolog para las empresas del Frente de Proyectos. Ha dado conferencias en eventos nacionales e internacionales y ha sido miembro de tribunales para seleccionar los trabajos en la temática de inteligencia artificial.
Publicaciones:

“¿Posthumanidad o posthumanismo?”, (ensayo) colección Pensar en Cuba, Modernidad Posmodernidad, Editorial Ciencias Sociales. 1997
“Hablemos de Cibernética”. Revista Juventud Técnica No. 274 año 1996.
“¿Serán nuestros nietos robots?” Revista Juventud Técnica No.275 año 1996.
“La Inteligencia Artificial. Una luz en la naturaleza” Revista GIGA No. 3 año 1998
“Ley robot”. (cuento) Revista Juventud Técnica No.274 año 1996
“Casa Muerta”. (cuento) Antología de ciencia ficción cubana: Polvo en el Viento, (Argentina 1999).
“Inteligencia Artificial, el futuro del hombre”, Editorial Amazon. 2013
“Zaida, cuentos de ciencia ficción”, Editorial Amazon. 2013
“Cosmovisión poética”, Editorial Amazon. 2013
“Crisis en el siglo XXI: Desafíos contemporáneos”, Editorial Amazon. 2014

0

A la hora de desarrollar un SMA se pueden considerar dos filosofías de trabajo, una basada en la utilización de un lenguaje de especificación de agentes y la otra a través del desarrollo de un sistema de software a partir de una plataforma que sirve de base a la construcción del SMA, dicha plataforma proporciona servicios básico de comunicación, gestión de agentes y una arquitectura de agente. En cualquiera de los dos casos, y sobre todo cuando el sistema a desarrollar es grande, se necesita metodologías que estructuren el desarrollo de acuerdo con las prácticas de ingeniería de software.

Tenemos que un SMA se puede abordar de dos formas:
1. Utilizando un lenguaje de especificación de agentes.
2. Utilizando una plataforma (sistema de software).

Lenguajes de especificación de agentes

Existen diferentes lenguajes específicos para agentes. Aunque vale decir que también se pueden desarrollar los SMA a tr5aves de lenguajes de propósito general tales como C++, Java, Pascal, etc. Pero seria mas engorrosa su implementación ya que se parte de cero y hay que construirlo todo, mientras los lenguajes de agentes ya ofrecen ciertas herramientas que facilitan la elaboración de los SMA.

El lenguaje de agente mas conocido es Agent0, donde se utilizo, por primera vez, la definición de programación orientada a gentes. Y propuso un nuevo paradigma de programación en el que la entidad principal es el agente. En Agent0, un agente es una entidad cuyo estado se ve como un conjunto de componentes mentales tales como creencias, habilidades, elecciones y compromisos, con estas entidades y un conjunto de primitivas, como son: enviar mensajes, comprometerse o solicitar la ejecución de una tarea, es posible elaborar un lenguaje de descripción de agentes. Existen otros lenguajes que siguen el modelo de Shohan como CASA o PLACA, estos lenguajes añaden la capacidad de planificar acciones a los agentes en el SMA.

Han surgido otros enfoques orientados a teorías de agentes, donde se enuncian definiciones formales para la construcción de los SMA. que permite la confirmación de las propiedades del mismo, lo cual permite manipular la intencionalidad de los agentes. Dentro de estos nuevos enfoques se encuentra ConGOLOG el cual se centra en modelar la ejecución de tareas asignadas a varios agentes y su efecto en el entorno y se tiene en cuenta la modificación de los conocimientos que sufren la entidades en la ejecución de las tareas (fluents) y defines axiomas: de ejecución de tareas, de precondición de tareas de marco (especifica a que fluents afecta la ejecución de la tarea). La ejecución del SMA consiste en descubrir que acciones se pueden ejecutar en el SMA que no creen inconsistencias en el conjunto de axiomas acumulados, que son el conjunto de precondiciones asociadas a las acciones posibles de los agentes.

Lenguajes de agentes:
1. Agent0
2. CASA
3. ConGOLOG.

Plataformas para el diseño de Sistemas Multi-Agentes

La tendencia actual en el desarrollo de SMA es la utilización de plataformas de desarrollo. Esto se debe en gran parte al nivel de conocimientos necesarios que generalmente implica programar con un lenguaje de agentes. Para suplir dicha complejidad han surgido dos tendencias por un lado armazones de software de SMA adaptables a diferentes dominios de aplicación (herramientas) y por otro lado plataformas de desarrollo de ámbito genérico que son implementaciones de estándares de agentes. Aunque el desarrollo con los armazones es más sencillo hoy en día predominan los segundos.

Tipos de plataformas:
1. Herramientas o armazones.
2. Plataformas genéricas.

La mayoría de las plataformas implementan las arquitecturas abstractas FIPA

0

Los agentes inteligentes, se tienden a interpretar como agentes aislados basados en diferentes tipos de arquitecturas: arquitectura de subsuncion, arquitectura de pizarra, arquitectura BDI y arquitecturas para la resolución genérica de problemas.

Debido al carácter distribuido de los entornos y a la necesidad de cooperación entre los agentes sobre todo en la solución de problemas complejos, han ido surgiendo métodos que permiten la colaboración de varios agentes para lograr objetivos comunes. Para estos casos surgen los Sistemas Multi-Agentes (SMA),

Existen dos formas de abordar el problema por medio de:
1. Agentes aislados.
2. Sistemas Multi-Agentes (SMA)

La filosofía de trabajo de los Sistemas Multi-Agentes implica no sólo la comunicación entre agente sino también lograr una actuación coordinada sobre el entorno. Este hecho aumenta la complejidad del desarrollo de los SMA, ya que obliga a realizar un estudio en todos sus detalles del entorno para detectar que acciones realizadas por un agente pueden afectar a otro agente y por supuesto al entorno en si.

A la hora de construir un sistema multiagente hay que tener en cuenta las diferentes técnicas que se pueden aplicar tales como:
1. Orientación a objetos.
• Estructura del sistema.
• Asignación de responsabilidades.
2. Sistemas expertos.
• Definición del comportamiento.
• Representación del conocimiento.
3. Inteligencia Artificial.
• Organización.
• Comunicación de conocimiento.
• Coordinación.

Para los sistemas basados en agentes consideraremos que el agente debe tener las siguientes características:
• Que tenga la capacidad de procesar conocimientos.
• Que puedan perseguir el cumplimiento de unos objetivos.
• Que sean capaces de influir en el entorno mediante acciones.
• Que las interacciones entre los agentes se puedan describir como acciones comunicativas.

Al igual que los sistemas expertos, los agentes no se aplican a cualquier tipo tarea. Para su uso eficiente seria bueno, que la tarea tenga alguna de las siguientes características:
• Situaciones donde los tipos de comunicaciones son complejos y diversos.
• Sistemas donde no es práctico o posible el comportamiento imperativo de caso por caso. Los agentes tienen la ventaja de estar guiado por sus objetivos y no de procedimientos que partiendo de una entrada lleguen a una salida.
• Sistemas donde se requiere de negociación, cooperación y competencia entre las distintas entidades.
• Sistemas autónomos.
• Sistemas con propiedades modulares: distribución, extensibilidad y flexibilidad.

Aspectos del SMA
1. Los agentes realizan tareas o persiguen objetivos
2. Identificación de objetivos generales y descomposición en objetivos más concretos que se pueden asignar a agentes
3. Qué interacciones existen entre agentes/roles
4. Organización de la estructura del SMA, roles, relaciones de poder, workflows
5. Entidades y relaciones con el entorno del SMA

1. Realización de tareas y control del estado mental del agente
a) Funcionalidad del agente:
• Qué tareas sabe ejecutar
• Qué objetivos se compromete a alcanzar
b) Control del agente:
• Estado mental: Agregación de entidades mentales tales como objetivos, creencias, compromisos, hechos.
• Gestión de estado mental: Creación, destrucción, modificación de las entidades del estado mental
• Procesador de estado mental: Reglas, planificación, etc.

2. Identificación y descomposición de objetivos
a) Objetivo (Situación deseada):
• Conjunto de estados que el agente quiere lograr, mantener, o evitar
• Una función de utilidad que maximizar
• Responde a ¿por qué?
b) Tarea: Transiciones de estado
• Conduce a la consecución de objetivos
• Responde a ¿cómo?

3. Interacción entre los agentes
a) Intercambio de conocimiento o peticiones (intencionalidad) entre agentes
b) Define las interacciones entre los agentes o entre agentes y humanos
• Se definen a alto nivel, en diseño se detalla el protocolo de interacción
• Se puede usar el concepto de protocolo de interacción de Agent UML o los protocolos de Gaia

4. Organización de la estructura
a) Descomposición de la estructura en grupos y flujos de trabajo.
• Interrelación de tareas en flujos de trabajo
• Relaciones entre agentes respecto a las tareas
• Recursos disponibles y asignación
b) Relaciones sociales
• Relaciones de poder (p.ej. subordinación) y cliente/servidor entre agentes
• Relaciones entre grupos
• Relaciones entre organizaciones
c) Funcionalidad
• Propósito
• Tareas que debe realizar

5. Entidades del entorno con las que se va a interactuar.
a) Recursos:
• Elementos consumibles o no consumibles: Descriptores de ficheros, hilos de ejecución, memoria, dispositivos de E/S, sockets, ancho de banda, etc.
b) Aplicaciones:
• Uso más complejo, por medio de alguna interfaz
c) Agentes
• Satisface el principio de racionalidad

Análisis del SMA
1. Propósito: obtener un modelo abstracto que represente los requisitos del sistema para:
• Entender mejor el problema
• Confirmar que se trata del problema a resolver (validación)
• Facilitar el diseño de la solución
2. Define qué hace el sistema
• Requisitos funcionales: Qué servicios proporciona el sistema
• Requisitos no funcionales: Parámetros de calidad de servicio

Diseño del SMA
1. Propósito: Transformación de las entidades de análisis en entidades computacionales
• Se asume una plataforma de agentes que establece una arquitectura y restricciones en las alternativas de diseño: Por ejemplo, BDI, capas, FIPA, etc.
2. Define cómo se realizan los requisitos del sistema
• Definición de la organización de los agentes del sistema
• Especificación de las interfaces de los agentes y componentes del sistema
• Estructura interna de los agentes y su comportamiento

Diseño del agente

1. Control y gestión
• Sincronización y coordinación de las actividades de los otros componentes

2. Percepción y comunicación
• Gestión de las sesiones de comunicación del agente con
• Otros agentes
• Usuarios
• Sistemas propietarios (legacy systems)

3. Dominio
• Recursos y elementos de información propios del dominio de la aplicación

4. Recursos
• Recursos genéricos de la plataforma de agentes

0

Para un sistema experto basado en el proceso deductivos seria:
Si hay una absoluta credibilidad A y existe la regla A  B entonces hay absoluta credibilidad en B.
Y si A es un conjunto de cláusulas del tipo A1, A2,…An. pero puede ser que B no sea totalmente cierta.

Cuando el conocimiento no es confiable

A sugiere B con un factor de confianza
H y B sugieren C con otro factor de confianza.

Formas de resolver esto.
1) Aplicando probabilidades.
P(B/A): probabilidad de que se presente B a partir de A (encadenamiento hacia delante).
2) Aplicando conjuntos difusos.

Y tendremos:

A  B cf (dado que B no esta totalmente cierta se da un cf: coeficiente de certeza)

También puede suceder que A no sea totalmente creíble.
Acf’  Bcf
O sea
A1cf1  A2cf2  …  Bcf

Cuando el conocimiento no es confiable

A sugiere B con un factor de confianza
H y B sugieren C con otro factor de confianza.

Formas de resolver esto.
2) Aplicando probabilidades.
P(B/A): probabilidad de que se presente B a partir de A (encadenamiento hacia delante).
2) Aplicando conjuntos difusos.

El problema de totalizar el valor de la incertidumbre implica el calculo sobre un conjunto de coeficientes relacionados por los operadores lógicos AND, OR y 

A tal efecto se consideran los siguientes conceptos:

1. Determinar el valor de la premisa de una regla por efecto de la conjunción de las cláusulas contenida en la misma (AND).
2. Determinar la propagación del valor de la premisa de una regla sobre la conclusión de la misma (  ).
3. Determinar el valor de la disyunción por efecto de la combinación de varias reglas con la misma conclusión (OR).

VP: valor de la premisa de una regla (cf1 AND cf2 AND cf3 …)
También: VP = cf1  cf2  cf3 … = min (cf1, cf2, cf3,…).

VR: valor de la regla por la propagación (VP  cf)
También: VR = VP  cf = min (VP, cf)

VC: valor de la conclusión por la combinación de las VR (VR1 OR VR2)
También: VC = VR1 + VR2 – VR1  VR2 = max (VR1, VR2).

Ejemplo de calculo de los factores de certeza

R1: Si A1cf11 y B1cf12 entonces C1cf1
R2: Si A2cf21 y B2cf22 entonces C2cf2

Para hallar el valor de la premisa

R1: VP1 = min {cf11, cf12}
R2: VP2 = min {cf21, cf22}

Para hallar el valor de la regla (propagación).
R1: VR1 = Vp1  cf1
R2: VR2 = Vp2  cf2

Para hallar el valor de las conclusiones (combinación)
VC = VR1 + VR2 – VR1  VR2

Hay que hallar un valor mínimo (umbral) tal que VC  Vmin

Para ello se halla el valor máximo que puede tener ese umbral dándole a todos los Cf de las premisas el valor de uno y se tendrá.

R1: Si A1(1) y B1(1) entonces C1cf1
R2: Si A2(1) y B2(1) entonces C2cf2

VP1 = 1
VP2 = 1

Por tanto.
VR1 = 1  cf1 = cf1
VR2 = 1  cf2 = cf2

Donde
VC = cf1 + cf2 – cf1  cf2 = Vi = Vmax

Y se tendrá Vmin  Vmax
Para cada conclusión del mismo tipo se obtiene:
Vmin  Vi

Ejemplo de conocimiento incierto:

H1: Te sugiero ir al cine.
H2: Te sugiero quedarte en casa.
H3: Tienes dinero.
H4: Tienes tiempo suficiente
H5: Esta lloviendo.
H6: La película esta buena.
H7: La película es de acción.
H8: La película es un drama.
H9: La película es de amor.
H10: La película es una comedia.

R1: Si H10 entonces H6 80%
R2: Si H8 entonces H6 60%
R2: Si H7 entonces H6 70%
R3: Si H6 entonces H1 60%
R4: Si H6 y H3 entonces H1 80%
R5: Si H6 y H3 y H4 entonces H1 95%.

El valor de certeza se da en % entre [0 , 100]

12

La necesidad de enfocarnos en el paradigma actual de la convergencia tecnológica.

Muchas de las propuestas de medidas basadas en el paradigma de las TIC y de mitigar los efectos, Este es un siglo en que la humanidad ha perdido toda esperanza en el futuro y parece preocuparse solo del presente. Ante esa falta de compromiso con las generaciones futuras y al estar cada vez más desligado de la naturaleza. Es lo que ha llevado a la humanidad a su exagerado consumismo.

Hasta mediados del siglo XX, el desarrollo se producía por un solo paradigma u ola que arrastraba hacia los cambios. El siglo XX vio nacer las tecnologías de la información y el paradigma de la sociedad de la información, llamado por otros la sociedad basada en el conocimiento. En el presente muchas instituciones de las naciones unidas, siguen haciendo énfasis en atacar a los efectos (disminuir los problemas), a lo que se une que los esfuerzos se actuales, están, únicamente, enfocando hacia la sociedad del conocimiento.
Lo que representa una preocupación, que casi todos los programas (por no ser absolutos) están ajenos al nuevo paradigma de la convergencia tecnológica y la necesidad de estar preparados para el impacto social, económico y cultural que tendrán sobre la humanidad.

Ahora en pleno siglo XXI, al paradigma de las tecnologías de la información se le están uniendo dos paradigmas que amenazan con convertirse en tsunami y arrastrar con todas las formas convencionales tal como las conocemos hoy, la biotecnología y la nanotecnología y mediante las cuales se alcanzaran niveles de desarrollo insospechados.

A partir de la revolución científico-técnica se consideran las siguientes eras:

  • Siglo XIX: Era de las máquinas.
  • Siglo: XX: Era de las tecnologías de la información
  • Siglo XXI: Era de las tecnologías convergentes, encabezada por la nanotecnología y la biotecnología.

Sabemos que muchas de las acciones no están realmente enfocadas al paradigma de las tecnologías y su impacto avasallador (tsunami), seguimos a diferencia de los tecnouturistas, viendo el futuro como algo lejano y determinado por las leyes actuales y no estamos consciente que la complejidad que enfrentaremos será de tal magnitud que no tendremos soluciones, si desde hoy no nos enfocamos hacia el paradigma de la convergencia tecnológica y sus consecuencias.

Planteamientos sobre la contribución de las tecnologías a la sostenibilidad
1) Cuestionar las soluciones puramente tecnológicas a los problemas.
2) Cuestionar cualquier movimiento anticiencia.
3) Poner en el centro del debate la sociedad del riesgo.

1) En este punto se percibe cierta separación entre lo humano y lo tecnológico, como si existieran actividades puramente humanas y puramente tecnológicas. Hoy es difícil separar al humano de la tecnología. En el artículo anterior vimos como los propios transhumanistas que creen que la única solución es la tecnología no pueden evitar en sus planteamientos referirse a los aspectos socio-económicos como causa de los cambios. No creo que puedan existir soluciones puramente tecnológicos, sino como será nuestra relación con la tecnología. Podemos cuestionar la lógica de las soluciones puramente tecnológicas (su intento de ignorara las causas sociales y económicas), pero no podemos cuestionar las expectativas que estas están creando y el impacto que están teniendo en los medios de poder. En un siglo donde predomina el vacío espiritual y la falta de esperanza en el futuro, el transhumanismo viene a ser la nueva ideología redentora que puede salvar a la humanidad.

Algunos tecnofuturistas ven a la transhumanidad como una raza superior donde se puede fusionar lo mejor de los humanos con la tecnología y se ven a los humanos como seres inferiores incapaces de sobrevivir por si mismos.

2) Dado el mal uso que se la ha dado a la tecnología es lógico que existan movimientos anticiencia, cada vez se hace más necesario una valoración correcta de la ciencia y la tecnología. Por lo demás ir en contra de la ciencia y la tecnología es un retroceso en la evolución humana y dado el desarrollo actual y los intereses hegemónicos es prácticamente inconsistente el planteamiento.

3) Los peligros de la tecnología
Se ve como solución al mal uso de la tecnología a la aplicación del principio de precaución. El problema esta en que el principio de precaución se ve como una imposición a realizar ciertas investigaciones, para muchos científicos lo que hace es prohibir el desarrollo. Se debe enfocar el tema a plantearnos PRINCIOS ETICOS UNIVERSALES y a la investigación de cómo será la relación de los humanos con la tecnología basados en la integración de la tecnología en el contexto humano y de la cooperación entre ambos.

0

Las amenazas son los efectos que estamos sufriendo de las acciones humanas dado nuestro contexto actual de dominio que ha provocado el crecimiento acelerado de dos parámetros: la degradación del planeta y el desarrollo de la tecnología con fines hegemónicos.

Dentro de las amenazas que enfrenta la humanidad esta las del presente, las que ya estamos sintiendo sus efectos y las futuras, las que producto de nuestro sistema social y económico, estructurado sobre la base del poder, podrían conducirnos a una mala utilización de las tecnologías, ya sea por errores o con fines destructivos. A las amenazas futuras, el filósofo y tecnofuturista norteamericano Nick Bostrom, las llama riesgos existenciales.

Vamos a ver los algunos de los riesgos existenciales que menciona Nick Bostron (aquellos que tienen que ver con la acción humana,

1. Mal uso de las tecnologías.
2. Guerras nucleares.
3. Pandemias.
4. Aristocracia posthumana.
5. Mala programación de una superinteligencia.
6. Superintenligencia autónoma que asume los valores de poder.
7. Criogenización y superpoblación.
8. Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).
9. Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la practica
10. Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.

El mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se considera los errores humanos, ej.,que un virus se escape de un laboratorio.

Si en la anterior nos referíamos a una extinción por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinción donde la lucha por el poder llega a límites extremos.

Aquí estamos considerando los escenarios que tienen que ver con la acción humana, por eso no se tienen en cuenta otros como los supervolcanes, tsumani, choque con un meteorito, etc. En el caso de las pandemias estas pueden ser productos de la mala manipulación humana de los virus y de experimentos no seguros.

Dentro de los riesgos de Bostron está que solo un grupo pueda alcanzar la posthumanidad, lo cual seria lo natural, dada los desequilibrios insostenibles y las desigualdades existentes, que siguen creciendo y si hoy hablamos de brecha digital, mañana hablaremos de una brecha tecnológica que dará lugar a una tecnocracia que se asuma el papel de una raza superior y tome el control del mundo

Una inteligencia artificial (IA) que por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador.

Ya hay algunos que están pagando por que se les congele sus cuerpos al morir; no todos, aunque lo deseen, pueden pagarlo; otros congelan sus cabezas, para cuando la tecnología haya madurado, los revivan y puedan disfrutar de una vida posthumana. De momento es solo un negocio donde ya algunas compañías están recibiendo sus ganancias. Esto según Bostrom podría crear una sobrepoblación, para la que no se estaría preparado, de hecho ya estamos ante un crecimiento incontrolado de la población.

Una de las mayores preocupaciones de Bostrom creador del transhumanismo, del transhumanismo hablaremos después es que no se llegue a alcanzar la posthumanidad, de ahí su preocupación a que surjan leyes que prohíban ciertas investigaciones o aplicaciones que limiten o frenen el camino hacia una transhumnidad, para él, la única solución viable para la humanidad. También le preocupa que existan problemas tecnológicos, que no permitan llevarla a la práctica y aquí surge una de las hipótesis más importantes: la acelerada degradación del planeta, calentamiento global, contaminación, consumo de recursos no llevará a corto plazo a la muerte del planeta y convirtiéndolo en un lugar inhóspito sin dar tiempo a que la tecnología se desarrolle lo suficiente y no se pueda alcanzar la meta de una posthumanidad. De ahí la tesis de los tecnofuturistas de apostar por la aceleración de la tecnología a toda costa, con el fin de tener alternativas artificiales que sustituyan la vida actual.

Bostrom, al final de sus hipótesis sobre los riesgos reconoce, por fin, que muchas estrategias a largo plazo se deben delegar (al igual que un jefe delega a un subordinado) a las generaciones futuras ya que no hay nada que podamos hacer

Con respecto a la aceleración, según datos de las Naciones Unidas, tenemos:

• Un crecimiento muy superior al que se había producido desde el comienzo de la civilización hasta 1950.

• Los 20 países más ricos del mundo han consumido en el último siglo más materia prima y más recursos energéticos no renovables, que toda la humanidad a lo largo de su historia y prehistoria.

• Desde mediados del siglo XX han nacido más seres humanos que en toda la historia de la humanidad.

Por lo que es casi seguro que cuando se alcance la primera mitad del siglo XXI se haya consumido más recursos del planeta que en toda la historia anterior (incluido la segunda mitad del siglo XX, que a su vez había consumido más recursos que en toda la historia). De mantenerse esta aceleración, que parece no tener límites, debida al ansia de consumismo y al egoísmo humano. Teniendo en cuento que los recursos del planeta son limitados; el agotamiento de los recursos es solo cuestión de tiempo.

Por lo que según estos datos, sino se hace nada, es muy posible que la aceleración de la degradación del planeta le gane la competencia a la aceleración de las tecnologías y su sueño de una posthumanidad.

0

A continuación las 10 tecnologías mas prometedoras que durante el 2008, podrán cambiar nuestra forma de vivir. Según la revista del MIT, Technology Review.

1) Modelación de la sorpresa.

La combinación de enormes cantidades de datos, los conocimientos sobre la psicología humana y una máquina que aprende, pueden ayudarle a los humanos a manejar eventos sorpresa, dice Eric Horvitz, de Microsoft. Para ello esta desarrollando un software que permitirá determinar el nivel de sorpresa que puede producir en la población determinado evento, tal como las reacciones de la población ante hechos fuera de lo común, como huracanes, terremotos, atentados terroristas y ayudar a diseñar los planes de acción

2) Chips probabilísticos

Krishna Palem, de la Universidad de Rice, piensa que introducir un poco de incertidumbre en los chips de computadora podría extender la vida de la batería en los dispositivos movibles, pero esto tiene como desventaja que podrían cometer errores en los cálculos, al no ser tan exactos como antes, pero tendrán la enorme ventaja que se disminuye el consumo energético y con ello la duración de la batería, se aumenta su capacidad de miniaturización a su vez que permitirá alargar la famosa ley de Moore.

3) Nanoradio

Los radios de tamaño molecular de Alex Zettl, investigador de la Universidad de Berkeley, son construidos a partir de nanotubos. Podrían mejorar todo, desde teléfonos celulares hasta el diagnóstico médico.

4) Energía inalámbrica

El físico Marin Soljacic, profesor de física en el MIT está trabajando hacia un mundo de electricidad sin cable. Para ello esta desarrollando un sistema que permita transmitir energía eléctrica sin utilizar cables, basado en el fenómeno del acoplo por resonancia.

5) Magnetómetros atómicos

Los diminutos sensores de campo magnético de John Kitching, físico del Nacional Institute of Standards and Technology, captarán MRI donde nunca ha sido captada antes. Este magnetometro tendrá el tamaño de un grano de arroz y se espera que se pueda aplicar desde los equipos de resonancia magnética utilizados en medicina, hasta los detectores de bomba.

6) Aplicaciones Web fuera de línea

Kevin Lynch de Adobe, cree que las aplicaciones informáticas se volverán más poderosas cuando aprovechen tanto la navegación (en red) como en aplicaciones locales en computadoras. Desde esta óptica podrá estar trabajando en aplicaciones capaces de ejecutarse localmente en la computadora del usuario, y a su vez tendrá la posibilidad de trabajar sobre aplicaciones capaces de interactuar con servidores Web (en red). Lo cual permitiría trabajar en cualquier computadora desde cualquier lugar, sin tener afectaciones, en caso de que se caiga la red, lo cual permite utilizar las ventajas de las aplicaciones de escritorio (offline) con las de la red (online).

7) Transistores de grafene

Una nueva forma de carbono inventada por Walter de Heer del Instituto Tecnologico de Georgia podría conducir a la fabricación procesadores de computadoras más veloces y compactos que los actuales de silicio. El grafene es una estructura de carbono de un átomo de espesor que presenta una elevada conductividad y se espera que pudieran superar el terahercio de velocidad.

8) Conectómica

Jeff Lichtman, profesor de Harvard, espera dilucidar en el cerebro el desarrollo de las enfermedades que lo afectan, por medio de nuevas tecnologías que permitan aclarar la compleja red de los circuitos neuronales. Se trata de un nuevo campo de investigación que pretende mapear los circuitos neuronales del cerebro encargados de recoger, procesar y almacenar la información con el fin, entre otras cosas, de descifrar el porque de enfermedades como el autismo o la esquizofrenia

9) Explotar la realidad

Sandy Pentland, del MIT, está usando los datos recogidos por los teléfonos celulares para aprender más sobre el comportamiento humano y las interacciones sociales. En un experimento realizado con 100 estudiantes del MIT, Pentland fue capaz de determinar los días y las horas a las que cada sujeto se encontraría con algún miembro de su red social.

10) Enzimas celulolíticas

Frances Arnold, investigadora del instituto tecnológico de California, se propone diseñar mejores enzimas para hacer biocombustibles a partir de celulosa. Su trabajo consiste en la creación de bacterias capaces de metabolizar la celulosa transformándola en biocombustible, hasta ahora solo ha podido crear encimas capaces de romper la celulosa, pero aspira lograr un método donde las propias bacterias que se usan en la fermentación puedan producir estas enzimas, lo que permitiría producir los biocombustibles en un solo

0

Algunos pueden creen que esta muy lejano el día en que veamos a un Cyborg. Se equivocan, el profesor de Cibernética en la Universidad de Reading, en Inglaterra. Kevin Warwick, ya es conocido como el primer cyborg*.

En 1998, Warwick, causó revuelo cuando un grupo de médicos hizo una pequeña incisión su brazo izquierda, deslizó una delgada cápsula de una pulgada de longitud, y lo cosió. Dicha cápsula contenía microchips de sílice que anunciaron la presencia de Warwick a otras computadoras.

En 2002, otro grupo de médicos abrió la muñeca izquierda de Warwick e implantó un aparato mucho más pequeño y sofisticado. Durante tres meses, sus 100 electrodos estuvieron conectados a su nervio mediano, uniendo su sistema nervioso a una computadora. A lo que Warwick declaro: “Cuando hice mi experimento en Nueva York, que consistía en controlar desde allí, con mi sistema nervioso conectado directamente a Internet para controlar una mano en el Reino Unido, en otro continente, eso demuestra que el cuerpo no es sólo esto, lo que ves ahora, sino cualquier cosa que puedas conectarte mediante cables. Es un concepto muy diferente. Es como ser un Superman, en cierta manera“.

Un poco después, experimentó un rudimentario intercambio de señales entre su cerebro y el de su esposa equipada de un electrodo implantado en un nervio y considera que esta es una primera hacia una comunicación a través del cerebro, su próximo paso. Porque el capitán cyborg como algunos le llaman se ha tomado muy en serio la idea de convertirse en cyborg y se ha propuesto almacenar los pensamientos. Warwick tiene pensado implantarse un elemento en su cerebro que podría terminar permitiendo enviar mensajes telemáticos o incluso grabar nuestras experiencias en la mente y tener acceso a los recuerdos cuando queramos.

Como los demás transhumanistas, considera que el potencial de los humanos esta muy limitado y que la posibilidad de convertirse en Cyborg es algo muy excitante y no puede espera, por lo que ya, desde hoy, se esta convirtiendo en un cyborg.

Kevin Warwick es una figura controvertida, también conocido como hombre chip, entre otras cosas se dedica a la concepción de chip rastreador, con los cuales se persigue, una vez implantados en un niño, evitar que este pueda ser secuestrado. Puede parecer absurdo pera a raíz del “caso Madeline”, una niña secuestrada cuya foto circulo todo el mundo, muchos padres están interesados en dicha tecnología y Warnick ni corto ni perezoso aseguro que su invención podría comercializarse en los próximos años y no quiso dar muchos detalles sobre su producto ya que tenia firmado acuerdos para su comercialización, Típico de una sociedad de consumo.

No se puede olvidar que Warnick es un profesor, por lo que sus ideas son susceptibles de ser asimiladas por sus alumnos, teniendo en cuenta su enfoque del futuro que considera que los humanos y las maquinas competirán por el dominio del planeta y que la única solución es la fusión entre humanos y tecnología y siendo como es un vivo ejemplo de esa fusión, podemos estar convencidos que su impacto será mucho mayor de lo imaginado.

También considera a los humanos como seres inferiores, afirma que los humanos pueden y deben ser actualizados. Las máquinas son superiores porque tienen, al menos, cinco cualidades de las que carecemos: poseen una memoria casi ilimitada, una capacidad de cálculo extraordinaria, la posibilidad de comprender más de tres dimensiones o cinco sentidos -pueden captar ultrasonidos o emitir infrarrojos- y, finalmente, pueden comunicarse sin hablar. Propio del razonamiento transhumanista que ignora el verdadero potencial de la mente humana y lo reduce a las posibilidades de la maquina.

Warwick desde hoy se abroga el derecho de decidir el futuro de las próximas generaciones cuando afirma: “A todos los que queráis seguir siendo humanos, tengo que deciros una cosa: en el futuro, seréis una subespecie“.