por Yuval Noah Harari del Sitio Web ABC También AQUÍ
los regímenes totalitarios se enfrenten a un peligro todavía mayor: en lugar de criticarlos, un algoritmo podría controlarlos...
Una bomba atómica no puede decidir a quién atacar, ni inventar nuevas bombas o nuevas estrategias militares.
Una IA, por el contrario, puede decidir por sí misma atacar un objetivo concreto, y puede inventar nuevas bombas, nuevas estrategias e incluso nuevas IA.
Lo más importante que hay que saber sobre la IA
es que no es una herramienta en nuestras manos: es un agente
autónomo.
Por ejemplo,
Cuanto más tiempo pasaban los usuarios en las redes sociales, más dinero ganaban estas empresas.
Sin embargo, en la búsqueda del objetivo de "potenciar la implicación del usuario", los algoritmos hicieron un descubrimiento siniestro.
Experimentando con millones de conejillos de indias humanos, los algoritmos aprendieron que la indignación generaba implicación...
Por tanto, los algoritmos empezaron a difundir deliberadamente la indignación, que es una de las principales razones de la actual epidemia de teorías conspirativas, noticias falsas y disturbios sociales que socava las democracias en todo el mundo.
Los directivos de Facebook, YouTube y Twitter no deseaban este resultado.
Pensaban que potenciar la indignación de los usuarios aumentaría sus beneficios, y no previeron que también aumentaría el caos social.
Este desastre social fue el resultado de un desajuste entre los intereses profundos de las sociedades humanas y las estrategias adoptadas por las IA.
Cuando fijamos un objetivo a un agente de IA,
Desde luego, el problema del ajuste no es nuevo ni exclusivo de las IA.
Por ejemplo, fue el problema fundacional del pensamiento militar moderno, consagrado en la teoría de la guerra de Carl von Clausewitz.
La historia está llena de grandes victorias militares que condujeron a desastres políticos.
Con la guerra de Napoleón, Clausewitz tenía el ejemplo más claro cerca de casa.
Un ejemplo más reciente de victorias militares que condujeron a derrotas políticas lo encontramos en la invasión estadounidense de Irak en 2003.
Los estadounidenses ganaron la mayor parte de los combates militares, pero no alcanzaron ninguno de sus objetivos políticos a largo plazo.
Su victoria militar no estableció un régimen amigo en Irak ni un orden geopolítico favorable en Oriente Próximo.
La victoria militar estadounidense hizo que Irak
abandonara su condición de enemigo tradicional de Irán para
convertirse en su vasallo, lo que debilitó muchísimo la posición de
Estados Unidos en Oriente Próximo, al tiempo que convertía a Irán en
el Estado hegemónico de la región.
Podemos entender el conjunto de 'De la guerra' de Clausewitz como una advertencia de que,
En su libro de 2014 'Superintelligence', el filósofo Nick Bostrom ilustraba el peligro mediante un experimento mental.
La clave del experimento mental es que el ordenador hace exactamente lo que se le dice.
Al darse cuenta de que necesita electricidad, acero, tierra y otros recursos para construir más fábricas y producir más clips, y al darse cuenta de que es poco probable que los humanos le suministren todos estos recursos, el ordenador superinteligente elimina a los humanos en su búsqueda decidida de cumplir con la tarea que se le ha encomendado.
Para Bostrom, el problema de los ordenadores no es que sean particularmente nocivos, sino que son particularmente poderosos...
Y, cuanto más poderoso es un ordenador, más precavidos hemos de ser a la hora de definir sus objetivos de una forma que se ajuste con precisión a nuestros objetivos finales.
El experimento mental de los clips puede parecer extravagante y muy desconectado de la realidad.
Pero, si los gestores de Silicon Valley hubieran prestado atención cuando Bostrom lo publicó en 2014, quizá habrían extremado las precauciones antes de instruir a sus algoritmos para que,
Los algoritmos de Facebook y YouTube,
Pero la IA también es una amenaza para los dictadores.
Aunque hay muchas formas en las que la IA puede cimentar el poder central, los regímenes autoritarios tienen sus propios problemas con ella.
En primer lugar,
Pero,
Si un chatbot de la Internet menciona los "crímenes" de guerra cometidos por las tropas rusas en Ucrania (o viceversa), cuenta un chiste irreverente sobre Vladimir Putin (o Zelenskyy), o critica la corrupción de su régimen,
En la época en que los ordenadores aún no podían generar contenido por sí mismos ni mantener conversaciones coherentes, los seres humanos eran los únicos capaces de expresar opiniones contrarias a las de redes sociales rusas como VKontakte y Odnoklassniki.
Pero,
Puede que disidentes rusos (o ucranianos), o incluso agentes externos hayan programado de antemano a estos bots para difundir opiniones contrarias al Gobierno, y quizá las autoridades no puedan hacer nada para impedirlo.
O, lo que sería aún peor para el régimen del país,
Este es el problema del ajuste, al estilo de cada país.
Los ingenieros humanos del país pueden afanarse en crear una IA que se ajuste totalmente al régimen, pero, dada la capacidad de la IA para aprender y cambiar por sí misma,
Es interesante recordar lo que George Orwell señalaba en 1984:
Rusia es un Estado autoritario que al mismo tiempo se define como una democracia.
La "invasión" rusa
de Ucrania ha sido la mayor guerra
que ha conocido Europa desde 1945, pero oficialmente se la define
como una "operación militar especial", y calificarla de "guerra" se
ha criminalizado y puede acarrear hasta tres años de prisión o el
pago de una multa de hasta cincuenta mil rublos.
Es difícil que haya un ciudadano lo bastante ingenuo como para creerse estas promesas al pie de la letra.
Pero a los ordenadores no se les da bien entender el doble discurso. Un chatbot al que se instruye para que se adhiera a las leyes y los valores rusos o ucranianos, podría leer esta constitución y concluir que la libertad de expresión es un valor fundamental del país.
Después de pasar unos días en el ciberespacio ruso y de supervisar el funcionamiento de la esfera de información rusa, el chatbot podría empezar a criticar el régimen por violar un valor tan fundamental como la libertad de expresión.
Los humanos también nos damos cuenta de estas contradicciones, pero evitamos hablar de ellas porque sentimos miedo.
Pero,
Desde luego, las democracias se enfrentan a problemas análogos con los chatbots que dicen cosas incómodas o plantean preguntas peligrosas.
La ventaja de las democracias es que gozan de un margen de maniobra mucho mayor a la hora de tratar con estos algoritmos fuera de control.
Puesto que las democracias se toman en serio la libertad de expresión, esconden muchos menos esqueletos en sus armarios y han desarrollado niveles relativamente altos de tolerancia incluso para los discursos antidemocráticos.
Los bots disidentes supondrán un reto mucho mayor
para los regímenes totalitarios, cuyos armarios esconden cementerios
enteros y que muestran una tolerancia nula hacia las críticas.
Por lo general, a lo largo de la historia, la mayor amenaza para los autócratas ha procedido de sus propios subordinados.
Si un autócrata del siglo XXI concede demasiado poder a la IA, esta bien podría convertirlo en su marioneta.
Si los algoritmos llegaran a desarrollar capacidades como las del experimento mental del clip de Bostrom, las dictaduras serían mucho más vulnerables a la toma del poder por parte de los algoritmos que las democracias.
Incluso a una IA super-maquiavélica le resultaría difícil adueñarse de un sistema democrático cuyo poder estuviera repartido como en "Estados Unidos"...
Aunque la IA lograra manipular al presidente, aún tendría que enfrentarse a la oposición del Congreso, del Tribunal Supremo, de los gobernadores de los distintos estados, de los medios de comunicación, de las principales compañías y de diversas ONG.
Adueñarse del poder en un sistema altamente centralizado es mucho más fácil.
Cuando todo el poder se concentra en manos de una
sola persona, quien controle el acceso al autócrata puede controlar
al autócrata y a todo el Estado. Para piratear un sistema
autoritario, la IA necesita aprender a manipular a un solo
individuo.
En la actualidad, no hay IA capaz de manipular regímenes a esta escala. Sin embargo, los sistemas totalitarios ya corren el peligro de depositar demasiada confianza en los algoritmos.
Si bien las democracias asumen que, como humanos, somos falibles, los regímenes totalitarios parten del supuesto de que el partido del Gobierno o el líder supremo nunca se equivocan.
Los regímenes basados en este supuesto se ven obligados a creer en la existencia de una inteligencia infalible, lo que los hace reacios a diseñar mecanismos de autocorrección sólidos que supervisen y regulen al genio que se halla en la cumbre.
Hasta ahora, este tipo de regímenes depositaban su fe en partidos y líderes humanos y eran semilleros para el surgimiento de cultos personalistas.
Pero, en el siglo XXI, esta tradición totalitaria los predispone a confiar en la infalibilidad de la IA.
A fin de cuentas, un sistema capaz de confiar en
el genio infalible de un Mussolini, un Stalin o un
Jomeiní bien puede confiar en la infalibilidad de un ordenador
superinteligente.
La ciencia ficción está llena de escenarios en los que una IA se descontrola y esclaviza o elimina a la humanidad.
Los autores que viven en democracias están obviamente interesados en sus propias sociedades, mientras que a los autores que viven en dictaduras se les suele disuadir de criticar a sus gobernantes.
Pero el punto más débil del escudo anti-IA de la humanidad son probablemente,
La forma más fácil de que una IA se haga con el
poder no es saliendo del laboratorio del doctor Frankenstein, sino
congraciándose con algún Gran Líder
paranoide...
|