agosto 2008 Archives

0

Las amenazas son los efectos que estamos sufriendo de las acciones humanas dado nuestro contexto actual de dominio que ha provocado el crecimiento acelerado de dos parámetros: la degradación del planeta y el desarrollo de la tecnología con fines hegemónicos.

Dentro de las amenazas que enfrenta la humanidad esta las del presente, las que ya estamos sintiendo sus efectos y las futuras, las que producto de nuestro sistema social y económico, estructurado sobre la base del poder, podrían conducirnos a una mala utilización de las tecnologías, ya sea por errores o con fines destructivos. A las amenazas futuras, el filósofo y tecnofuturista norteamericano Nick Bostrom, las llama riesgos existenciales.

Vamos a ver los algunos de los riesgos existenciales que menciona Nick Bostron (aquellos que tienen que ver con la acción humana,

1. Mal uso de las tecnologías.
2. Guerras nucleares.
3. Pandemias.
4. Aristocracia posthumana.
5. Mala programación de una superinteligencia.
6. Superintenligencia autónoma que asume los valores de poder.
7. Criogenización y superpoblación.
8. Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).
9. Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la practica
10. Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.

El mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se considera los errores humanos, ej.,que un virus se escape de un laboratorio.

Si en la anterior nos referíamos a una extinción por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinción donde la lucha por el poder llega a límites extremos.

Aquí estamos considerando los escenarios que tienen que ver con la acción humana, por eso no se tienen en cuenta otros como los supervolcanes, tsumani, choque con un meteorito, etc. En el caso de las pandemias estas pueden ser productos de la mala manipulación humana de los virus y de experimentos no seguros.

Dentro de los riesgos de Bostron está que solo un grupo pueda alcanzar la posthumanidad, lo cual seria lo natural, dada los desequilibrios insostenibles y las desigualdades existentes, que siguen creciendo y si hoy hablamos de brecha digital, mañana hablaremos de una brecha tecnológica que dará lugar a una tecnocracia que se asuma el papel de una raza superior y tome el control del mundo

Una inteligencia artificial (IA) que por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador.

Ya hay algunos que están pagando por que se les congele sus cuerpos al morir; no todos, aunque lo deseen, pueden pagarlo; otros congelan sus cabezas, para cuando la tecnología haya madurado, los revivan y puedan disfrutar de una vida posthumana. De momento es solo un negocio donde ya algunas compañías están recibiendo sus ganancias. Esto según Bostrom podría crear una sobrepoblación, para la que no se estaría preparado, de hecho ya estamos ante un crecimiento incontrolado de la población.

Una de las mayores preocupaciones de Bostrom creador del transhumanismo, del transhumanismo hablaremos después es que no se llegue a alcanzar la posthumanidad, de ahí su preocupación a que surjan leyes que prohíban ciertas investigaciones o aplicaciones que limiten o frenen el camino hacia una transhumnidad, para él, la única solución viable para la humanidad. También le preocupa que existan problemas tecnológicos, que no permitan llevarla a la práctica y aquí surge una de las hipótesis más importantes: la acelerada degradación del planeta, calentamiento global, contaminación, consumo de recursos no llevará a corto plazo a la muerte del planeta y convirtiéndolo en un lugar inhóspito sin dar tiempo a que la tecnología se desarrolle lo suficiente y no se pueda alcanzar la meta de una posthumanidad. De ahí la tesis de los tecnofuturistas de apostar por la aceleración de la tecnología a toda costa, con el fin de tener alternativas artificiales que sustituyan la vida actual.

Bostrom, al final de sus hipótesis sobre los riesgos reconoce, por fin, que muchas estrategias a largo plazo se deben delegar (al igual que un jefe delega a un subordinado) a las generaciones futuras ya que no hay nada que podamos hacer

Con respecto a la aceleración, según datos de las Naciones Unidas, tenemos:

• Un crecimiento muy superior al que se había producido desde el comienzo de la civilización hasta 1950.

• Los 20 países más ricos del mundo han consumido en el último siglo más materia prima y más recursos energéticos no renovables, que toda la humanidad a lo largo de su historia y prehistoria.

• Desde mediados del siglo XX han nacido más seres humanos que en toda la historia de la humanidad.

Por lo que es casi seguro que cuando se alcance la primera mitad del siglo XXI se haya consumido más recursos del planeta que en toda la historia anterior (incluido la segunda mitad del siglo XX, que a su vez había consumido más recursos que en toda la historia). De mantenerse esta aceleración, que parece no tener límites, debida al ansia de consumismo y al egoísmo humano. Teniendo en cuento que los recursos del planeta son limitados; el agotamiento de los recursos es solo cuestión de tiempo.

Por lo que según estos datos, sino se hace nada, es muy posible que la aceleración de la degradación del planeta le gane la competencia a la aceleración de las tecnologías y su sueño de una posthumanidad.

12

La necesidad de enfocarnos en el paradigma actual de la convergencia tecnológica.

Muchas de las propuestas de medidas basadas en el paradigma de las TIC y de mitigar los efectos, Este es un siglo en que la humanidad ha perdido toda esperanza en el futuro y parece preocuparse solo del presente. Ante esa falta de compromiso con las generaciones futuras y al estar cada vez más desligado de la naturaleza. Es lo que ha llevado a la humanidad a su exagerado consumismo.

Hasta mediados del siglo XX, el desarrollo se producía por un solo paradigma u ola que arrastraba hacia los cambios. El siglo XX vio nacer las tecnologías de la información y el paradigma de la sociedad de la información, llamado por otros la sociedad basada en el conocimiento. En el presente muchas instituciones de las naciones unidas, siguen haciendo énfasis en atacar a los efectos (disminuir los problemas), a lo que se une que los esfuerzos se actuales, están, únicamente, enfocando hacia la sociedad del conocimiento.
Lo que representa una preocupación, que casi todos los programas (por no ser absolutos) están ajenos al nuevo paradigma de la convergencia tecnológica y la necesidad de estar preparados para el impacto social, económico y cultural que tendrán sobre la humanidad.

Ahora en pleno siglo XXI, al paradigma de las tecnologías de la información se le están uniendo dos paradigmas que amenazan con convertirse en tsunami y arrastrar con todas las formas convencionales tal como las conocemos hoy, la biotecnología y la nanotecnología y mediante las cuales se alcanzaran niveles de desarrollo insospechados.

A partir de la revolución científico-técnica se consideran las siguientes eras:

  • Siglo XIX: Era de las máquinas.
  • Siglo: XX: Era de las tecnologías de la información
  • Siglo XXI: Era de las tecnologías convergentes, encabezada por la nanotecnología y la biotecnología.

Sabemos que muchas de las acciones no están realmente enfocadas al paradigma de las tecnologías y su impacto avasallador (tsunami), seguimos a diferencia de los tecnouturistas, viendo el futuro como algo lejano y determinado por las leyes actuales y no estamos consciente que la complejidad que enfrentaremos será de tal magnitud que no tendremos soluciones, si desde hoy no nos enfocamos hacia el paradigma de la convergencia tecnológica y sus consecuencias.

Planteamientos sobre la contribución de las tecnologías a la sostenibilidad
1) Cuestionar las soluciones puramente tecnológicas a los problemas.
2) Cuestionar cualquier movimiento anticiencia.
3) Poner en el centro del debate la sociedad del riesgo.

1) En este punto se percibe cierta separación entre lo humano y lo tecnológico, como si existieran actividades puramente humanas y puramente tecnológicas. Hoy es difícil separar al humano de la tecnología. En el artículo anterior vimos como los propios transhumanistas que creen que la única solución es la tecnología no pueden evitar en sus planteamientos referirse a los aspectos socio-económicos como causa de los cambios. No creo que puedan existir soluciones puramente tecnológicos, sino como será nuestra relación con la tecnología. Podemos cuestionar la lógica de las soluciones puramente tecnológicas (su intento de ignorara las causas sociales y económicas), pero no podemos cuestionar las expectativas que estas están creando y el impacto que están teniendo en los medios de poder. En un siglo donde predomina el vacío espiritual y la falta de esperanza en el futuro, el transhumanismo viene a ser la nueva ideología redentora que puede salvar a la humanidad.

Algunos tecnofuturistas ven a la transhumanidad como una raza superior donde se puede fusionar lo mejor de los humanos con la tecnología y se ven a los humanos como seres inferiores incapaces de sobrevivir por si mismos.

2) Dado el mal uso que se la ha dado a la tecnología es lógico que existan movimientos anticiencia, cada vez se hace más necesario una valoración correcta de la ciencia y la tecnología. Por lo demás ir en contra de la ciencia y la tecnología es un retroceso en la evolución humana y dado el desarrollo actual y los intereses hegemónicos es prácticamente inconsistente el planteamiento.

3) Los peligros de la tecnología
Se ve como solución al mal uso de la tecnología a la aplicación del principio de precaución. El problema esta en que el principio de precaución se ve como una imposición a realizar ciertas investigaciones, para muchos científicos lo que hace es prohibir el desarrollo. Se debe enfocar el tema a plantearnos PRINCIOS ETICOS UNIVERSALES y a la investigación de cómo será la relación de los humanos con la tecnología basados en la integración de la tecnología en el contexto humano y de la cooperación entre ambos.

0

Para un sistema experto basado en el proceso deductivos seria:
Si hay una absoluta credibilidad A y existe la regla A  B entonces hay absoluta credibilidad en B.
Y si A es un conjunto de cláusulas del tipo A1, A2,…An. pero puede ser que B no sea totalmente cierta.

Cuando el conocimiento no es confiable

A sugiere B con un factor de confianza
H y B sugieren C con otro factor de confianza.

Formas de resolver esto.
1) Aplicando probabilidades.
P(B/A): probabilidad de que se presente B a partir de A (encadenamiento hacia delante).
2) Aplicando conjuntos difusos.

Y tendremos:

A  B cf (dado que B no esta totalmente cierta se da un cf: coeficiente de certeza)

También puede suceder que A no sea totalmente creíble.
Acf’  Bcf
O sea
A1cf1  A2cf2  …  Bcf

Cuando el conocimiento no es confiable

A sugiere B con un factor de confianza
H y B sugieren C con otro factor de confianza.

Formas de resolver esto.
2) Aplicando probabilidades.
P(B/A): probabilidad de que se presente B a partir de A (encadenamiento hacia delante).
2) Aplicando conjuntos difusos.

El problema de totalizar el valor de la incertidumbre implica el calculo sobre un conjunto de coeficientes relacionados por los operadores lógicos AND, OR y 

A tal efecto se consideran los siguientes conceptos:

1. Determinar el valor de la premisa de una regla por efecto de la conjunción de las cláusulas contenida en la misma (AND).
2. Determinar la propagación del valor de la premisa de una regla sobre la conclusión de la misma (  ).
3. Determinar el valor de la disyunción por efecto de la combinación de varias reglas con la misma conclusión (OR).

VP: valor de la premisa de una regla (cf1 AND cf2 AND cf3 …)
También: VP = cf1  cf2  cf3 … = min (cf1, cf2, cf3,…).

VR: valor de la regla por la propagación (VP  cf)
También: VR = VP  cf = min (VP, cf)

VC: valor de la conclusión por la combinación de las VR (VR1 OR VR2)
También: VC = VR1 + VR2 – VR1  VR2 = max (VR1, VR2).

Ejemplo de calculo de los factores de certeza

R1: Si A1cf11 y B1cf12 entonces C1cf1
R2: Si A2cf21 y B2cf22 entonces C2cf2

Para hallar el valor de la premisa

R1: VP1 = min {cf11, cf12}
R2: VP2 = min {cf21, cf22}

Para hallar el valor de la regla (propagación).
R1: VR1 = Vp1  cf1
R2: VR2 = Vp2  cf2

Para hallar el valor de las conclusiones (combinación)
VC = VR1 + VR2 – VR1  VR2

Hay que hallar un valor mínimo (umbral) tal que VC  Vmin

Para ello se halla el valor máximo que puede tener ese umbral dándole a todos los Cf de las premisas el valor de uno y se tendrá.

R1: Si A1(1) y B1(1) entonces C1cf1
R2: Si A2(1) y B2(1) entonces C2cf2

VP1 = 1
VP2 = 1

Por tanto.
VR1 = 1  cf1 = cf1
VR2 = 1  cf2 = cf2

Donde
VC = cf1 + cf2 – cf1  cf2 = Vi = Vmax

Y se tendrá Vmin  Vmax
Para cada conclusión del mismo tipo se obtiene:
Vmin  Vi

Ejemplo de conocimiento incierto:

H1: Te sugiero ir al cine.
H2: Te sugiero quedarte en casa.
H3: Tienes dinero.
H4: Tienes tiempo suficiente
H5: Esta lloviendo.
H6: La película esta buena.
H7: La película es de acción.
H8: La película es un drama.
H9: La película es de amor.
H10: La película es una comedia.

R1: Si H10 entonces H6 80%
R2: Si H8 entonces H6 60%
R2: Si H7 entonces H6 70%
R3: Si H6 entonces H1 60%
R4: Si H6 y H3 entonces H1 80%
R5: Si H6 y H3 y H4 entonces H1 95%.

El valor de certeza se da en % entre [0 , 100]