El progreso tecnológico ha ido pasando de las herramientas, las máquinas manejadas por el hombre, a las máquinas autónomas cada vez más inteligentes (según avancen las técnicas de inteligencia artificial) que irán inevitablemente formando parte de la vida social de los humanos, ya no como herramientas o máquinas (automóviles, computadoras, grúas, etc.) sino como máquinas superinteligentes capaces de tomar decisiones junto a los humanos. Ahora, la pregunta es: ¿estamos preparado para ese futuro?
En el sitio The Millennium Project, se plantea la necesidad de una ética global ante la aceleración tecnológica que se está produciendo que va más allá de los medios convencionales de evaluación ética y se plantea la necesidad de sistemas éticos que se anticipen a los posibles eventos futuros. Y señala, como preocupación, el hecho de que una sola persona, pueda alcanzar un poder masivamente destructivo, ya que las tecnologías destructivas están al alcance de cualquiera que las pueda comprar y el acceso a la información ya no es un problema, hoy casi todo se puede encontrar en Internet. Sin, dudas el terrorismo es una de las mayores amenazas de este siglo.
Otros hablan del peligro de una tecnología ciega. Que no es otra cosa que una tecnología que avanza en la historia sin un conocimiento profundo del territorio natural, biológico, humano y social en que se mueve. Es el uso negligente de las tecnologías (con fines de lucro, militares, etc.) que ignora las consecuencias de sus actuaciones y actúa al margen de ellas.
Y como consecuencia de esta tecnología ciega, se citan las siguientes consecuencias: el problema de la contaminación, la destrucción de los recursos naturales, el cambio climático, de extinción de especies animales, la alteración de la biosfera, etc.
Por su parte, Miguel Ángel Gutiérrez, realiza el siguiente cuestionamiento: “¿Cuál es el límite de las tecnologías? Ninguna de ellas queda confinada a la función que su creador original imaginó; las tecnologías se entrecruzan, se potencian, se modifican y generan nuevas aplicaciones, por lo que se hace necesario conocer cuáles pueden ser sus consecuencias, más allá del producto o servicio que la incorporen inicialmente.
Hasta el super optimista y experto en inteligencia artificial, Ray Kurzweil, muestra cierta preocupación cuando dice: “No podemos depender de enfoques de ‘prueba y error’ para tratar los riesgos existenciales… Tenemos que incrementar enormemente nuestra inversión para desarrollar tecnologías defensivas específicas… Estamos hoy en la fase crítica de la biotecnología, y alcanzaremos la fase en la que tendremos que implementar directamente tecnologías defensivas para la nanotecnología en los últimos años de la próxima década… Un patógeno autoreplicante, ya sea biológico o basado en la nanotecnología, podría destruir nuestra civilización en cuestión de días o semanas.”
Esto es solo una introducción en el próximo artículo iremos entrando en detalles. El tema está abierto…
Leave a Comment