por Rafael García del Valle
Marzo 21, 14

del Sitio Web AlPoniente

 



 

Rafael García del Valle

Licenciado en Filología Hispánica por la Universidad de Salamanca (España). Persigue obsesivamente los misterios de la existencia, actividad que contrarresta con altas dosis de literatura científica para no extraviarse en

un multiverso sin pies ni cabeza.

Es autor del blog www.erraticario.com 


 

 

 

 

 

 

 

La tecnología se desarrolla de manera exponencial, según la ley de Moore.

 

Esto tiene consecuencias insospechadas, por ignoradas, en el sector de la inteligencia artificial (I.A.). Sin siquiera salirnos de los límites de la robotización convencional, nuevos artefactos surgen día tras día con una nueva conquista: automatizar trabajos que el día anterior requerían de habilidades humanas.

 

El aumento de la capacidad de procesamiento permite llevar a cabo acciones cada vez más sofisticadas.

 

Por ejemplo, una nueva generación de máquinas amenaza los puestos de trabajo que aún son manuales en la industria. Es inevitable que se pierdan cientos de miles, o millones, de empleos.

 

¿Cuál es la solución? ¿Acaso la hay?

 

La regulación mediante leyes estatales es una fantasía que sólo calma a quienes se aferran, ciegos, a los viejos tiempos. Los Estados nacionales hace tiempo que perdieron su poder. Sólo quedan las fachadas de un mundo ya caducado, en un intento por mantener la ilusión de que todo sigue, y seguirá, igual. Pero no es así. El mundo está definitivamente gobernado por las grandes corporaciones.

 

Una cuestión es inevitable: ¿cómo ha de ser la siguiente fase de relaciones humanas?

 

Según la masa pierde su capacidad adquisitiva, es evidente que el modelo de consumo tal y como lo conocemos tiene sus días contados. Se produce en masa para que se compre en masa; cuando ya no es posible comprar, no tiene sentido producir. A no ser que en el intercambio intervengan factores de valor ajenos al dinero, claro…

 

La capacidad de percepción, planificación y movimiento de los nuevos robots está a punto de hacer posible que su hábitat natural deje de ser una zona cerrada y controlada, como las fábricas, donde las variables a tener en cuenta son mínimas y todas las reacciones están, por tanto, previstas y determinadas en comportamientos automatizados;  no, los nuevos robots podrán salir al mundo exterior a relacionarse con los humanos y tratarlos de tú a tú.

 

Atlas es la última criatura conocida del DARPA (video abajo).

 

Percibe el mundo a través de una unidad LIDAR, un artilugio parecido a un radar que usa luz láser en lugar de ondas de radio y le permite traducir el mundo, sus objetos y sus habitantes, a un mapa 3D dentro de sus circuitos cerebrales.

 

 

 

 

 

 

 

Gracias a la enorme velocidad con que su cerebro electrónico procesa los datos, Atlas puede desenvolverse en un ambiente tan caótico como el de una ciudad y recorrer sus calles de manera completamente autónoma.

 

Los descendientes de Atlas realizarán tareas allí donde el ser humano no puede sobrevivir, como zonas contaminadas por vertidos químicos o radiación nuclear.

 

 

 

 

Unos pasos más y habremos entrado en la era de la Inteligencia Artificial.

 

El principal obstáculo para el avance de la Inteligencia Artificial es el desconocimiento de lo que realmente ocurre en el cerebro humano.

 

La universalidad de la computación es una ley de la física que dice que todo lo que un cuerpo físico puede realizar puede ser emulado por una computadora con la memoria precisa y el tiempo suficiente.

 

Hay quienes consideran que la idea de que el cerebro es un ordenador se basa en metáforas propias de la época, insustanciales, como las comparaciones con máquinas de vapor o artilugios de relojería en otras épocas.

 

Sin embargo, la universalidad de la computación desmiente que se trate de una simple metáfora, explica el físico David Deutsch.

 

Puede que la concepción del hardware no sea la correcta; autores como Vlatko Vedral y Roger Penrose hablan de computación cuántica en este sentido para superar la computación tradicional. Pero la base, la información, es lo que permite hablar de universalidad. Basta con encontrar las vías para trasladarla al idioma adecuado.

 

Un tópico constante en el ámbito de estudio de la Inteligencia Artificial es que ciertas funciones cognitivas son propias del ser humano e imposibles de ser emuladas.

 

Es decir, escapan a la ley de universalidad, de modo que no existiría tal ley.

 

Alan Turing no compartía este criterio, y afirmaba que cualquier atributo del cerebro humano podía ser codificado, incluyendo sentimientos y libre albedrío. Y aquí, podemos añadir a riesgo de equivocarnos, los nuevos algoritmos surgidos de la teoría del caos y de la geometría fractal quizás tendrán mucho que decir en el futuro próximo.

 

El debate ha estado contaminado por prejuicios culturales difíciles de superar y que, en palabras de David Deutsch, han impedido la correcta comprensión de lo que significa la universalidad de la computación, y todo lo que implica en relación al mundo físico.

 

La clave está en el concepto de creatividad: la habilidad para producir nuevas explicaciones.

 

La computación se suele entender como una introducción de datos que describen procesos, de los que la máquina selecciona el más adecuado para cada tarea, acción que también se debe a una introducción de órdenes que le dicen cómo seleccionar. Depende, por tanto, de instrucciones externas.

 

Los desafíos de la I.A. han sido copados en exceso, dice Deutsch, por la teoría conductista, que describe el desarrollo humano en términos de interacción de los organismos con sus ambientes. En términos cibernéticos, hay un sistema de entrada de información (los sentidos), un almacenamiento en la memoria, un procesamiento (análisis) y una salida de la información.

 

El problema está en el tipo de procesamiento y salida, pues la computación tradicional, que interpreta el funcionamiento de la mente como una asignación de probabilidades a diferentes opciones; opciones que serán más o menos amplias en función de la información almacenada, la comparación de situaciones pasadas con las presentes y el cálculo de éxito o fracaso.

 

Pero la mente va más allá de estas operaciones: no es posible prever el futuro extrapolando simplemente el pasado; tal es el pensamiento de una computadora, que desarrolla patrones futuros a partir de la experiencia "sensorial", inputs, almacenada.

 

Esta es una pequeña parte del conocimiento; el resto está basado en conjeturas, creación de mundos mentales, discriminación y valoración de lo que es real y lo que no lo es, incluyendo lo que debería ser.

 

Es decir, el conocimiento incluye verdades y mentiras. Pensar consiste en pensar no sólo los datos, sino los pensamientos, la manera en que se tratan, hacer autocrítica de las ideas que surgen, localizando y corrigiendo errores.

 

El hecho es que, en términos cibernéticos, la habilidad para crear nuevas explicaciones es la única función significativa que caracteriza a una persona y, por tanto, la que deberá caracterizar a una inteligencia artificial.

 

Y entonces vendrá el gran dilema, pues lo artificial y lo natural se habrán diluido en una misma entidad: precisamente, la entidad "persona".

 

En este sentido, no es el objeto físico, sino el software el que ha de ser considerado persona, y esto acarrea consecuencias filosóficas importantes: una vez que se ejecute el programa de inteligencia artificial en una computadora, su apagado equivaldría al asesinato.

 

Y, al poder ser copiados de un "cuerpo" a "otro", si esta copia se realiza antes de que el software haya podido diferenciarse a causa de las elecciones aleatorias y las experiencias particulares que registrará y conformarán su "personalidad", ¿se deberá interpretar como una misma persona o como varias diferentes e independientes?

 

Una vez ejecutado, el programa de inteligencia artificial ya no es un "programa". Entraría dentro de la categoría de los seres vivos.

 

El desarrollo de la I.A. es un problema en cuanto que se integra en cuestiones aún no resueltas en la esfera del ser humano, y que tienen que ver con conceptos como el bien y el mal.

 

Por ejemplo, programar una I.A. con un código para que obedezca las leyes establecidas, tal y como sugieren las tres leyes de la robótica de Asimov, ¿sería equivalente a una violación de sus derechos como persona, un "lavado de cerebro"?

 

Lo que no se concibe como legítimo de ser aplicado a un ser humano, si se le aplicase a una I.A., ¿supondría discriminación, racismo, estado de esclavitud?

 

Los códigos de obediencia serían inútiles en una I.A.:

en su capacidad creativa, acabaría interpretando tales imposiciones como discriminatorias, vejatorias… y terminaría por sublevarse.

La distopía está servida…