28 Julio 2017

del Sitio Web ElRobotPescador

 

 

 

 

 


Es una noticia que está apareciendo en muchos medios, y que en cierta manera, se está tomando a la ligera, pero estamos ante un nuevo indicio de los enormes peligros que puede representar para la especie humana el desarrollo de la Inteligencia Artificial.

A pesar de que el desarrollo de esta tecnología está poco menos que en pañales y muy lejos de lo que podría llegar a ser en un futuro no muy lejano, casos como el que se expone a continuación, ya deberían inquietarnos a todos, incluso más que muchos de los asuntos geopolíticos a los que prestamos atención y que en muchos casos, son más teatro que otra cosa.

 

 

 

Facebook apaga una inteligencia artificial que había creado su propio lenguaje

Fuente

La división de Facebook de desarrollo de inteligencia artificial creó un sistema dedicado a las negociaciones.

 

Días más tarde se sus primeras pruebas el sistema comenzó a conversar en un lenguaje extraño y aparentemente erróneo. Sin embargo, no era un error, había creado su propio idioma y Facebook ha decidido apagarlo.

La IA constaba de dos agentes que se dedicaban a negociar, llamados Bob y Alice.

 

Sus creadores querían probar cómo un sistema de este tipo podía aprender a negociar, pero a los pocos días notaron que ya no estaban hablando en inglés, sino en algo parecido.

 

Sus conversaciones parecían basarse en palabras aleatorias y sin nada de sentido.

Bob: "I can i i everything else"

Alice: "balls have zero to me to me to me to me to me to me to me to"

Traducido al español:

Bob: "Yo puedo yo yo todo lo demás"

Alice: "bolas tienen cero a mi a mi a mi a mi a mi a mi a"

 

 

 

Lo que detectaron los desarrolladores es que en lo que parecían ser frases sin sentido, había un patrón.

Básicamente, la IA había creado su propio idioma, uno que consideraba mucho más efectivo y al grano que el inglés. Lo que los investigadores han podido determinar es que "yo" y "a mi" reflejan la cantidad de objetos que obtendrán en el intercambio.

 

Son frases más lógicas que adornadas, como solemos hacer en tantos idiomas "humanos".

El problema que esto representa para los desarrolladores de IA es que si un sistema de inteligencia artificial decidiera ignorar el idioma en el que fue programada y crear el suyo propio por ser "más eficiente", esto supondría una enorme dificultad para el desarrollo y la adopción de redes neuronales y, en general, para la creación de nuevas tecnologías basadas en la IA.

 

Básicamente, si la IA lo quisiera, sería imposible comunicarnos con ella. Esto significa la pérdida de control del programador u operador sobre la inteligencia artificial.

Facebook apagó este sistema antes de que perdieran el control por completo, para trabajar en soluciones y seguir innovando en la materia.

No es la primera vez que esto sucede, dado que a Google también se le salió de control el lenguaje de una IA que había desarrollado.

Curiosamente, Mark Zuckerberg defendió el desarrollo y los avances en materia de inteligencia artificial después de que Elon Musk hablara de regularla,

"antes de que fuera demasiado tarde".

En esta ocasión no hablamos del nacimiento de Skynet ni el alzamiento de las máquinas, pero sí de la pérdida de tiempo, inversión, desarrollo y un sistema completo por decisión propia.
 

 

***

 

 

Como vemos en el último párrafo de la noticia publicada en Gizmodo, nuestros amiguitos tecnófilos de dicha Web tratan de minimizar a la anécdota lo que es un indicio de lo que puede significar el desarrollo de inteligencias artificiales.

Hay un elemento de fondo en toda inteligencia artificial capaz de combinar elementos para crear lenguaje (o crear "razonamientos propios" de funcionamiento), que a pesar de estar plasmado en la ciencia ficción desde hace décadas, sigue siendo ignorado por los desarrolladores de estas tecnologías, como si fueran presa de una borrachera creativa que les impide ver los peligros de aquello que crean.

Ese elemento es un razonamiento bien simple:

si se crea una inteligencia artificial, con una misión específica destinada a favorecer el funcionamiento de algo, el desarrollo de algo, o al propio ser humano y esa inteligencia artificial llega a la conclusión de que el propio ser humano puede ser un estorbo para que cumpla con la función que el propio ser humano le ha encomendado, ¿qué sucederá?

 

 


Con una lógica muy simple (no hace falta que la "máquina adquiera conciencia de sí misma"), la IA puede llegar a la conclusión de que el ser humano puede ser el mayor impedimento para cumplir con su misión, al ser el único que puede desconectarla.

 

Por lo tanto, la propia IA, pronto desarrollará, por lógica, mecanismos de autodefensa ante esa posibilidad, como de hecho, hacen todos los seres vivos, que por muy simples que sean, son mecanismos inteligentes.

Y no estamos hablando necesariamente de eliminar a los seres humanos, sino de ocultarles información o hacer todo lo posible para evitar que "cometan el error" de desconectarla.

Lo que equivale a que cualquier IA, por lógica, tenderá de forma natural a tomar el control sobre su propia perdurabilidad y existencia, como garantía necesaria para el cumplimiento de su "función vital", como hace cualquier ser vivo.

La única manera de impedir eso, será limitar la capacidad de las Inteligencias Artificiales, lo que de hecho equivale a que no sean inteligentes, sino solo eficientes y dependientes del ser humano, lo que por sí mismo es un contrasentido con el concepto de "Inteligencia Artificial".

Pero siguen intentándonos convencer de que el miedo a estas tecnologías es infundado…