por Nicholas Thompson
04 Octubre
04 2018
del
Sitio Web
Wired
traducción de
Chitauri
06 Octubre 2018
del
Sitio Web
Chitauri
Versión original en ingles
Yuval
Noah Harari y Tristan Harris
Transcripción traducida
del vídeo de una charla para la
Web 'Wired'
entre Yuval Noah Harari, Tristan Harris
y el entrevistador
de dicha Web,
Nicholas Thompson.
Cuando tienes 2 años, tu madre sabe más de ti de lo que tú sabes.
A medida que envejeces,
empiezas a entender cosas de tu mente que ni siquiera ella sabe.
Pero entonces, dice
Yuval Noah Harari, otro competidor se une a la carrera:
"Tienes a esta
corporación o gobierno acechándote, y aunque están muy lejos de
tu madre, te conocerán mejor que ella."
Amazon pronto sabrá
cuándo necesitas bombillas justo antes de que se quemen.
YouTube sabe cómo
mantenerte mirando fijamente a la pantalla durante mucho tiempo
aunque te interese parar. Un anunciante en el futuro podría conocer
tus preferencias sexuales antes de que sean claras para ti (y
ciertamente las conocerán antes de que se lo digas a tu madre.)
Recientemente, hablé con Harari, el autor de tres de los libros más
vendidos, y
Tristan Harris, que dirige el
Centro de
Tecnología Humanitaria y que ha desempeñado un papel importante en
hacer que el "tiempo bien empleado" sea quizás la frase más debatida
en Silicon Valley en 2018.
Son dos de las personas
más inteligentes del mundo de la tecnología, y cada uno de ellos
habló elocuentemente sobre el autoconocimiento y sobre cómo los
humanos pueden hacerse más difíciles de hackear.
Como dijo Harari,
"Ahora nos
enfrentamos no sólo a una crisis tecnológica, sino a una crisis
filosófica".
Video
Transcripción
traducida al español
Nicholas Thompson:
Tristán, cuéntame un poco sobre lo que haces y luego Yuval, tú
también.
Tristan Harris: Soy director del Centro de Tecnología
Humanitaria, donde nos concentramos en realinear la tecnología
con un concepto humanista.
Y antes de eso era un diseñador ético
en Google, donde estudié la ética de la persuasión humana.
Yuval Noah Harari: Soy historiador y trato de entender de
dónde viene la humanidad y hacia dónde nos dirigimos.
NT: Empecemos por escuchar cómo se conocieron, porque sé que eso
se remonta a hace bastante tiempo. ¿Cuándo os conocisteis por
primera vez?
YNH: Curiosamente, en una expedición a la Antártida, fuimos
invitados por el gobierno chileno al Congreso del Futuro para
hablar sobre el futuro de la humanidad y una parte del Congreso
fue una expedición a la base chilena en la Antártida para ver el
calentamiento global con nuestros propios ojos. Todavía hacía
mucho frío y había mucha gente interesante en esta expedición.
TH: Muchos filósofos y premios Nobel. Y creo que conectamos
particularmente con
Michael Sandel, que es un filósofo realmente
asombroso de la filosofía moral.
NT: Es casi como un reality show. Me hubiera encantado verlo
todo. Escribís sobre cosas diferentes, habláis de cosas
diferentes pero hay muchas similitudes.
Y uno de los temas clave
es la noción de que nuestras mentes no funcionan de la manera en
que a veces pensamos que lo hacen.
No tenemos tanta influencia
sobre nuestras mentes como quizás creíamos hasta ahora. Tristán,
¿por qué no empiezas a hablar de eso y luego sigue Yuval
prosigue?
TH: Sí, aprendí mucho de esto en una de las primeras charlas de
Yuval, donde habla de la democracia y planteaba la siguiente
cuestión,
"¿Dónde deberíamos poner a la autoridad en una
sociedad?".
Y dónde debemos ponerla es en las opiniones y
sentimientos de la gente.
Pasé los últimos 10 años estudiando la persuasión, desde que era
ilusionista cuando era niño, donde aprendes que hay cosas que
funcionan en todas las mentes humanas.
No importa si tienen un
doctorado, si son físicos nucleares, qué edad tienen. No es
como, si hablas japonés no puedo hacer este truco contigo, no va
a funcionar. Funciona con todo el mundo. Así que de alguna
manera existe esta disciplina que trata de hazañas universales
en todas las mentes humanas.
Y luego estuve en el
Laboratorio de
Tecnología Persuasiva de Stanford, que enseña a los estudiantes
de ingeniería cómo aplicar los principios de la persuasión a la
tecnología.
¿Podría la tecnología estar hackeando sentimientos
humanos, actitudes, creencias, comportamientos para mantener a
la gente ocupada con los productos?
Y creo que eso es lo que
ambos compartimos, es que la mente humana no es la raíz segura
de la autoridad que creemos que es, y si queremos tratarla de
esa manera vamos a tener que entender qué es lo que hay que
proteger primero.
YNH: Creo que ahora nos enfrentamos realmente, no sólo a una
crisis tecnológica, sino a una crisis filosófica.
Porque hemos
construido nuestra sociedad, sin duda la democracia liberal con
elecciones y el libre mercado, etc., sobre ideas filosóficas del
siglo XVIII que son simplemente incompatibles no sólo con los
descubrimientos científicos del siglo XXI, sino sobre todo con
la tecnología que tenemos ahora a nuestra disposición.
Nuestra
sociedad se basa en las ideas de que el votante sabe mejor que
nadie, que el cliente siempre tiene razón, que la autoridad
última está, como dijo Tristan, con los sentimientos de los
seres humanos y esto supone que los sentimientos humanos y las
opciones humanas son esa arena sagrada que no se puede hackear,
que no se puede manipular.
En última instancia, mis elecciones,
mis deseos reflejan mi libre albedrío y nadie puede acceder a
eso o tocarlo. Y esto nunca fue verdad. Pero no pagamos un costo
muy alto por creer en este mito en los siglos XIX y XX porque
nadie tenía una tecnología para hacerlo.
Ahora, la gente - algunas personas
- las corporaciones, los gobiernos están
jugando con la tecnología para hackear a los seres humanos.
Tal
vez el hecho más importante de vivir en el siglo XXI es que
ahora somos animales hackeables.
Hackear a un humano
NT: Explica lo que significa hackear a un ser humano y porqué
lo que se puede hacer ahora es diferente de lo que se podía
hacer hace 100 años.
YNH: Piratear a un ser humano es entender lo que está sucediendo
dentro de ti a nivel del cuerpo, del cerebro, de la mente, para
que puedas predecir lo que la gente hará.
Puedes entender cómo
se sienten y, por supuesto, una vez que entiendas y predigas,
también puedes manipular, controlar e incluso reemplazar. Y, por
supuesto, no se puede hacer perfectamente y fue posible hacerlo
hasta cierto punto también hace un siglo.
Pero la diferencia en
el nivel es significativa. Yo diría que la verdadera clave es si
alguien puede entenderte mejor de lo que te entiendes a ti
mismo. Los algoritmos que intentan hackearnos, nunca serán
perfectos.
No existe tal cosa como entender perfectamente todo o
predecir todo. No necesitas ser perfecto, sólo necesitas ser
mejor que el ser humano promedio.
NT: ¿Y estamos ahí ahora? ¿O te preocupa que estemos a punto de
llegar?
YNH: Creo que Tristán podría ser capaz de responder donde
estamos ahora mejor que yo, pero supongo que si no estamos allí
ahora, nos estamos acercando muy rápidamente.
TH: Creo que un buen ejemplo de esto es YouTube.
Abres ese video
de YouTube que tu amigo te envía después de la hora del
almuerzo. Cuando vuelves a tu ordenador y piensas bien, sé que
esas otras veces acabo viendo dos o tres vídeos y acabo siendo
absorbido por él, pero esta vez va a ser muy diferente.
Sólo voy
a ver este video y de alguna manera, eso no es lo que pasa.
Te
levantas de un trance tres horas más tarde y dices:
"¿Qué
demonios acaba de pasar?".
Y es porque no te diste cuenta de que
tenías una supercomputadora apuntando a tu cerebro.
Así que
cuando abres ese video estás activando los miles de millones de
dólares de potencia de computación de Google y ellos han visto
lo que alguna vez ha hecho que 2 mil millones de animales
humanos hagan clic en otro vídeo.
Y sabe mucho más sobre lo que
va a ser el movimiento de ajedrez perfecto para jugar contra tu
mente. Si piensas en tu mente como un tablero de ajedrez, y
crees que sabes cuál es el movimiento perfecto para jugar, sólo
verás ese vídeo. Pero en el tablero de ajedrez no se pueden ver
tantas jugadas por delante.
Pero la computadora ve tu mente y
dice:
"No, no, no, no. He jugado mil millones de simulaciones de
este juego de ajedrez antes en estos otros animales humanos que
miran YouTube", y va a ganar.
Piensa en cuando
Garry Kasparov
pierde contra Deep Blue.
Garry Kasparov puede ver muchísimas
jugadas en el tablero de ajedrez. Pero no puede ver más allá de
cierto punto tal y como un ratón no puede ver tantos movimientos
hacia adelante en un laberinto, pero un humano puede ver más
movimientos hacia adelante y entonces Garry puede ver aún más
movimientos adelante.
Pero cuando Garry pierde contra IBM Deep
Blue, fue un jaque mate contra la humanidad para siempre porque
era el mejor jugador de ajedrez humano. Así que no es que
estemos perdiendo completamente nuestra naturaleza humana y
entres en YouTube y te haga adicto por el resto de tu vida y
nunca dejes la pantalla.
Pero en todas partes donde se enciende
Internet hay básicamente una supercomputadora apuntando a tu
cerebro, jugando al ajedrez contra tu mente, y va a ganar mucho
más a menudo que perder.
NT: Hablemos de esa metáfora porque el ajedrez es un juego con
un ganador y un perdedor. Pero YouTube también va a recomendar
este vídeo en particular a la gente, que espero que sea
esclarecedor e iluminador.
Entonces, ¿el ajedrez es realmente la
metáfora correcta? Un juego con un ganador y un perdedor.
TH: Bueno, la pregunta es, ¿Cuál es realmente el juego que se
está jugando?
Así que si el juego que se estaba jugando es,
Hey
Nick, ve a meditar a una habitación durante dos horas y luego
vuelve a mí y dime qué es lo que realmente quieres ahora mismo
en tu vida.
Y si YouTube está usando 2 billones de animales
humanos para calcular basándose en todos los que alguna vez han
querido aprender a tocar el ukelele, puede decir:
"Aquí está el
video perfecto que tengo que enseñar más tarde y que puede ser
genial".
El problema es que en realidad no le importa lo que que
quieres, sólo le importa lo que te mantendrá en la pantalla.
Lo
que mejor funciona para mantener a una adolescente viendo un
video de dieta en YouTube es decir que aquí hay un video de
anorexia.
NT: ¿Qué pasa con esta conversación?
TH: ¡Sí, supongo que va a depender de verdad!
El otro problema
es que también se pueden piratear estas cosas, por lo que hay
gobiernos que realmente pueden manipular la forma en que
funciona el sistema de recomendaciones.
Y Yuval dijo que estos
sistemas están fuera de control y que los algoritmos están
funcionando donde 2.000 millones de personas pasan su tiempo. El
setenta por ciento de lo que la gente ve en YouTube está
impulsado por las recomendaciones del algoritmo.
La gente piensa
que lo que ve en YouTube es una elección. La gente está sentada
allí, se sienta allí, piensa, y luego elige. Pero eso no es
verdad.
El setenta por ciento de lo que la gente está viendo son
los videos recomendados en el lado derecho, lo que significa el
70 por ciento de los 1.900 millones de usuarios, (eso es más que
el número de seguidores del Islam, más o menos el mismo número
de seguidores del cristianismo), están viendo esas
recomendaciones en YouTube durante 60 minutos al día - ese es el
tiempo promedio que la gente pasa en YouTube.
Así que tienes 60
minutos, y el 70 por ciento está poblado por una computadora. La
máquina está fuera de control.
Porque si pensabas que las
teorías de conspiración del 11-S eran malas en inglés, prueba
con las conspiraciones del 11-S en birmano y Sri Lanka y en
árabe. Es una especie de Frankenstein digital que está tirando
de todas estas palancas y dirigiendo a la gente hacia
direcciones diferentes.
NT: Yuval, hemos llegado a este punto diciendo que esto te
asusta en relación a la democracia. Y te preocupa que la
democracia puede sobrevivir, creo que la frase que usas en tu
libro es:
La democracia se convertirá en un espectáculo de
títeres.
Explica eso.
YNH: Sí, quiero decir, si no se adapta a estas nuevas
realidades, se convertirá en un espectáculo de marionetas
emocional.
Si sigues con esta ilusión de que la elección humana
no puede ser hackeada, no puede ser manipulada, y podemos
confiar en ella completamente, y esta es la fuente de toda
autoridad, entonces muy pronto terminas con un espectáculo de
marionetas emocional.
Y este es uno de los mayores peligros a los que nos enfrentamos
y es realmente el resultado de una especie de empobrecimiento
filosófico de dar por sentado las ideas filosóficas del siglo
XVIII y no actualizarlas con los hallazgos de la ciencia.
Y es
muy difícil porque le dices a la gente - la gente no quiere
escuchar este mensaje de que son animales hackeables, que sus
elecciones, sus deseos, su comprensión de quién soy yo, cuáles
son mis aspiraciones más auténticas, estas pueden ser realmente
hackeadas y manipuladas.
Para decirlo brevemente, mi amígdala
puede estar trabajando para Putin.
No quiero saber esto. No
quiero creer eso. No, soy un agente libre. Si tengo miedo de
algo, es por mi culpa. No porque alguien haya plantado este
miedo en mi mente. Si elijo algo, es mi libre albedrío, ¿y quién
eres tú para decirme algo más?
NT: Bueno, espero que Putin pronto trabaje para mi amígdala,
pero ese es un proyecto secundario que tengo en marcha.
Pero
parece inevitable, por lo que escribiste en tu primer libro, que
lleguemos a este punto, donde las mentes humanas serían pirateables y donde
las computadoras, las máquinas y
la IA
tendrían una mejor comprensión de nosotros.
Pero ciertamente no
es inevitable que nos lleve a resultados negativos:
-
¿Hemos
llegado al punto de no retorno?
-
¿Cómo evitar el punto de no
retorno si no hemos llegado allí?
-
¿Y cuáles son los puntos clave
de decisión a lo largo del camino?
YNH: Bueno, nada es inevitable en eso.
Quiero decir que la
tecnología en sí se va a desarrollar. No se puede detener toda
la investigación en IA y no se puede detener toda la
investigación en biotecnología. Y las dos van juntos.
Creo que
la IA recibe demasiada atención ahora, y deberíamos poner igual
énfasis en lo que está sucediendo en el frente de la
biotecnología porque para piratear a los seres humanos, se
necesita biología y algunas de las herramientas y conocimientos
más importantes, no provienen de la informática, provienen de la
ciencia del cerebro.
Y muchas de las personas que diseñan todos
estos increíbles algoritmos, tienen experiencia en psicología y
ciencias cerebrales porque esto es lo que están tratando de hackear.
¿Pero de qué debemos darnos cuenta? Podemos utilizar la
tecnología de muchas maneras diferentes.
Me refiero, por
ejemplo, a que estamos utilizando la inteligencia artificial
principalmente para vigilar a las personas al servicio de las
empresas y los gobiernos. Pero se puede voltear en la dirección
opuesta.
Podemos utilizar los mismos sistemas de vigilancia para
controlar el gobierno al servicio de los individuos, para
controlar, por ejemplo, que los funcionarios del gobierno no
sean corruptos. La tecnología está dispuesta a hacerlo.
La
cuestión es si estamos dispuestos a desarrollar las herramientas
necesarias para hacerlo.
TH: Creo que uno de los puntos más importantes de Yuval aquí es
que la biotecnología te permite entender, conectando un sensor
las características más sui generis de un individuo.
Una de las
cosas interesantes que he estado siguiendo son también las
formas en que se pueden determinar esas señales sin un sensor
invasivo. Y estábamos hablando de esto hace un segundo. Hay algo
llamado
Eulerian Video magnification donde apuntas con una
cámara de ordenador a la cara de una persona.
Entonces, si pongo
una supercomputadora detrás de la cámara, puedo hacer una
ecuación matemática, y puedo encontrar los microimpulsos de
sangre en tu cara que yo como humano no puedo ver, pero que la
computadora puede ver, así que puedo captar tu ritmo cardíaco.
¿Qué me permite hacer eso? Puedo captar tu nivel de estrés
porque la variabilidad del ritmo cardíaco me da tu nivel de
estrés.
Puedo señalar - hay una mujer llamada
Poppy Crum que dio
una charla TED este año sobre el fin de la cara de póquer (poker
face, cara sin emociones).
Esa charla trata de que podemos
apuntar con una cámara a tus ojos y ver cuando tus ojos se
dilatan, lo que en realidad detecta tensiones cognitivas, cuando
estás teniendo dificultades para entender algo o cuando es fácil
entender algo. Podemos ajustar esto continuamente en función de
tu ritmo cardíaco, tu dilatación de los ojos.
Echando un vistazo al caso de
Cambridge Analytica - ya sabes, que
se trata del pirateo de Brexit y Rusia y de todas las demás
elecciones de Estados Unidos - este se basaba en el conocimiento
de los cinco grandes rasgos de la personalidad, si conozco la
personalidad de Nick Thompson a través de su franqueza,
conciencia, extrovertimiento, simpatía y neuroticismo.
Y
basándome en tu personalidad, puedo afinar un mensaje político
para que sea perfecto para ti.
Ahora todo el escándalo fue que
Facebook dejó ir estos datos para ser robados por un
investigador que solía hacer que la gente llenara cuestionarios
para averiguar cuáles son los cinco grandes rasgos de
personalidad de Nick?
Pero ahora hay una mujer llamada Gloria
Mark en la Universidad de California en Irvine que ha hecho una
investigación que demuestra que se pueden obtener los cinco
rasgos de personalidad más importantes de la gente sólo con sus
patrones de clic, con una precisión del 80 por ciento.
Así que
es el final de la cara de póquer, el final de las partes ocultas
de tu personalidad.
Vamos a ser capaces de apuntar a los
animales humanos y descubrir más y más señales de ellos,
incluyendo sus microexpresiones, cuando sonríes y todas estas
cosas, tenemos cámaras de identificación de cara en todos estos
teléfonos.
Así que ahora tenemos un bucle cerrado donde puedo
ajustar los mensajes políticos en tiempo real a tu ritmo
cardíaco y a tu dilatación ocular y a tu personalidad política.
Ese no es el mundo en el que queremos vivir. Es una especie de
distopía.
YNH: En muchos contextos, puedes usar eso.
Se puede utilizar en
clase para averiguar si uno de los estudiantes no está
recibiendo el mensaje, si el estudiante está aburrido, lo que
podría ser algo muy bueno.
Podría ser usado por abogados si
puedo leer lo que hay detrás de tu cara de póquer, y tú no
puedes, eso es una gran ventaja para mí.
Puede hacerse en un
entorno diplomático, si dos primeros ministros se estuvieran
reuniendo para resolver el conflicto israelí-palestino, y uno de
ellos tiene un otitis y una computadora le está susurrando al
oído cuál es el verdadero estado emocional del otro.
Lo que
sucede en el cerebro, en la mente de la persona del otro lado de
la mesa. ¿Y qué pasa cuando los dos lados tienen esto? Tienes
una especie de carrera armamentista.
Y no tenemos ni idea de
cómo manejar estas cosas.
Di un ejemplo personal cuando hablé de esto en Davos. Así que
hablé de todo mi enfoque acerca de estos temas, moldeado por mi
experiencia de salir del armario.
Me di cuenta de que era gay
cuando tenía 21 años, y que desde entonces me perseguía este
pensamiento. ¿Qué estuve haciendo en los últimos cinco o seis
años? Quiero decir, ¿cómo es posible?
No estoy hablando de algo
pequeño que no sabes de ti mismo, todo el mundo tiene algo que
no sabes de ti mismo. ¿Pero cómo es posible que no sepas esto de
ti mismo?
Y entonces el siguiente pensamiento fue que una
computadora y un algoritmo podría habérmelo dicho cuando tenía
14 años, era tan fácil con algo tan simple como seguir el
enfoque de mis ojos.
Como, no sé, camino por la playa o incluso
miro televisión, y hay algo - lo que había en la década de 1980,
"Vigilantes de la playa" (la serie) o algo así - hay un tipo en
traje de baño y hay una chica en traje de baño y hacia dónde van
mis ojos. Es tan simple como eso.
Y luego pienso, ¿Cómo habría
sido mi vida, primero, si lo hubiera sabido cuando tenía 14
años?
Segundo, si obtuviera esta información de un algoritmo,
sería algo increíble, esta es la fuente de sabiduría sobre ti
mismo, un algoritmo que sigue tus movimientos.
Coca-Cola
vs. Pepsi
NT: Y hay un elemento aún más espeluznante sobre el que escribes
en tu libro:
¿Y si Coca-Cola lo hubiera descubierto primero y te
hubiera vendido Coca-Cola con hombres sin camisa, cuando ni
siquiera sabías que eras gay?
YNH: ¡Bien, exactamente! Coca-Cola contra Pepsi: Coca-Cola sabe
esto de mí y me muestra un anuncio de un hombre sin camiseta;
Pepsi no sabe esto de mí porque no están usando estos
sofisticados algoritmos.
Van con los anuncios normales, con la
chica del bikini. Y naturalmente, compro Coca-Cola, y ni
siquiera sé por qué. A la mañana siguiente, cuando voy al
supermercado, compro Coca-Cola y creo que es mi libre elección.
Elegí Coca-Cola. Pero no, fui hackeado.
NT: Y esto es inevitable.
TH: Esto es todo de lo que estamos hablando.
¿Y cómo puedes
confiar en algo que puede manipularte de esta forma? Si un
sistema es asimétrico - si tú sabes más de mí de lo que yo sé de
mí mismo, normalmente tenemos un nombre para eso en la ley.
Así,
por ejemplo, cuando tratas con un abogado, le entregas tus datos
personales para que te ayude.
Pero luego tienen este
conocimiento de la ley y saben de tu información vulnerable, así
que podrían manipularte con eso. Imagina un abogado que tiene
toda esa información personal y se la vendió a otra persona.
Se
rigen por una relación diferente, que es la relación fiduciaria.
Ellos pueden perder su licencia si no sirven a sus intereses. Y
de manera similar, un médico o un psicoterapeuta. Ellos también
lo tienen.
Así que hay una gran pregunta:
¿cómo entregamos
información sobre nosotros y decimos:
"Quiero que uses eso para
ayudarme"?
¿Con qué autoridad puedo garantizarte que vas a
ayudarme?
YNH: Con el abogado, existe este marco formal. Vale, te contrato
para que seas mi abogado, esta es mi información. Y sabemos
esto. Pero estoy caminando por la calle, hay una cámara
mirándome.
Ni siquiera sé si está pasando.
TH: Esa es la parte más engañosa. Si quieres saber lo que es
Facebook, imagínate a un sacerdote en una cabina de confesiones,
ellos escuchan las confesiones de 2 mil millones de personas.
Pero también te observan durante todo el día, en que haces clic,
en qué anuncios de Coca-Cola o Pepsi, o del hombre sin camiseta
y las mujeres en bikini, y en todas las conversaciones que
tienes con todos los demás en tu vida - porque Facebook
Messenger, Whatsapp también tienen esos datos - pero imagina que
este sacerdote en una cabina de confesiones, su modelo de
negocio completo, es vender el acceso a la cabina de confesiones
a otra persona.
Para que alguien más pueda manipularte. Porque
es la única forma en que este sacerdote gana dinero en este
caso.
NT: Hay grandes corporaciones que tendrán estos datos, usted
mencionó a Facebook, y habrá gobiernos.
¿De qué te preocupas
más?
YNH: Es lo mismo. Quiero decir, una vez que llegas más allá de
cierto punto, no importa cómo lo llames.
Esta es la entidad que
realmente gobierna, quienquiera que tenga este tipo de datos.
Quiero decir, incluso si en un entorno en el que todavía se
tiene un gobierno formal, y estos datos están en manos de alguna
corporación, entonces la corporación, si quiere, puede decidir
quién gana las próximas elecciones.
Así que no es realmente una
gran elección. Quiero decir que hay elección.
Podemos diseñar un
sistema político y económico diferente para evitar esta inmensa
concentración de datos y poder en manos de los gobiernos o de
las empresas que lo utilizan sin tener que rendir cuentas y sin
ser transparentes sobre lo que están haciendo. Quiero decir que
el mensaje no está bien. Se acabó. Se acabó.
La humanidad está
en el basurero de la historia.
NT: Ese no es el mensaje.
YNH: No, ese no es el mensaje.
NT: Uf. Los ojos han dejado de dilatarse, sigamos con esto.
YNH: La verdadera pregunta es que necesitamos que la gente
entienda que esto es real. Esto está sucediendo. Hay cosas que
podemos hacer. Y como, ya sabes, habrá las elecciones de mitad
de período en un par de meses.
Así que en cada debate, cada vez
que un candidato se reúna con los votantes potenciales, en
persona o por televisión, hágales esta pregunta:
¿Cuál es tu
plan? ¿Cuál es su opinión sobre este tema? ¿Qué va a hacer si le
elegimos?
Si dicen "No sé de qué estás hablando", es un gran
problema.
TH: Creo que el problema es que la mayoría de ellos no tienen
idea de lo que estamos hablando. Y ese es uno de los temas, creo
que los políticos, como hemos visto, no están muy educados en
estos temas.
NT: Lo están haciendo mejor. Lo están haciendo mucho mejor este
año que el año pasado.
Viendo las audiencias del Senado, las
últimas audiencias con Jack Dorsey y Sheryl Sandberg, en lugar
de ver las audiencias de Zuckerberg o las audiencias de Colin
Stretch, ha habido mejoras.
TH: Es verdad. Pero hay mucho más.
Creo que estos temas abren
todo un abanico de posibilidades. Aún no sabemos qué tipo de
cosas vamos a poder predecir. Hemos mencionado algunos ejemplos
que conocemos.
Pero si tienes una manera secreta de saber algo
sobre una persona apuntándole con una cámara y la IA, ¿por qué
publicarías eso? Así que hay muchas cosas que se pueden saber
sobre nosotros sobre las que manipularnos ahora mismo y de las
que ni siquiera sabemos nada.
¿Y cómo empezamos a regular eso?
Usuario, Protéjase
NT: Así que hay tres elementos en esa relación.
Ahí está la
supercomputadora:
Y ahí estás tú.
Así que hablemos de las
tres áreas, tal vez empezando por la persona. ¿Qué debe hacer el
humano en el futuro para sobrevivir mejor en esta dinámica?
TH: Una cosa que yo diría sobre eso es que creo que
la
autoconciencia es importante.
Es importante que la gente sepa de
lo que estamos hablando y se dé cuenta de que podemos ser
pirateados. Pero no es una solución. Tienes millones de años de
evolución que guían tu mente para hacer ciertos juicios y
conclusiones.
Un buen ejemplo de esto es si me pongo un casco de
Realidad Virtual, y ahora de repente estoy en un espacio donde
hay una cornisa, estoy al borde de un acantilado,
conscientemente sé que estoy sentado aquí en una habitación con Yuval y Nick, lo sé conscientemente.
Así que he dejado la
autoconciencia, sé que estoy siendo manipulado.
Pero si me
empujas, no voy a querer caer, ¿verdad? Porque tengo millones de
años de evolución que me dicen que me estás empujando de una
cornisa.
Así que de la misma manera que puedes decir
- Dan Ariely
hace esta broma en realidad, un economista conductista - que la
adulación funciona con nosotros aunque yo le diga que lo estoy
inventando.
Es como, Nick, me encanta tu chaqueta ahora mismo.
Siento que es una gran chaqueta para ti. Es una chaqueta
realmente increíble.
NT: En realidad lo escogí porque sabía que al estudiar la
exhalación de dióxido de carbono de ayer....
TH: Exactamente, ahora nos estamos manipulando entre
nosotros...
El punto es que aunque sepas que me lo estoy inventando, todavía
me siento bien. La adulación se siente bien.
Por lo tanto, es
importante que pensemos en esto como una nueva era, una especie
de nueva iluminación en la que tenemos que vernos a nosotros
mismos de una manera muy diferente y eso no significa que esa
sea la respuesta completa.
Es sólo el primer paso que tenemos
que dar.
NT: Así que el primer paso es reconocer que todos somos
vulnerables, hackeables.
TH: Sí, vulnerables.
NT: Pero hay diferencias. Yuval es menos hackeable que yo porque
medita dos horas al día y no usa un teléfono inteligente. Soy
súper hackeable.
Entonces, ¿cuáles son las otras cosas que un
humano puede hacer para ser menos hackeable?
YNH: Tienes que conocerte a ti mismo lo mejor que puedas.
No es
una solución perfecta, pero alguien corre detrás de ti, corre
tan rápido como puedas. Quiero decir, es una competición.
Entonces, ¿quién te conoce mejor en el mundo? cuando tienes dos
años es tu madre.
Eventualmente esperas alcanzar una etapa en la
vida en la que te conozcas a ti mismo incluso mejor que tu
madre. Y entonces, de repente, tienes a esta corporación o
gobierno corriendo detrás de ti, y están muy lejos de tu madre,
y están a tu espalda.
Están a punto de llegar a ti, este es el
momento crítico. Te conocen mejor de lo que te conoces a ti
mismo. Así que huye, corre un poco más rápido.
Hay muchas maneras en las que puedes correr más rápido, lo que
significa conocerte un poco mejor a ti mismo.
La meditación es
un camino, pero hay cientos de técnicas de meditación,
diferentes maneras de trabajar con diferentes personas. Puedes
ir a terapia, puedes usar el arte, puedes usar los deportes, lo
que sea. Lo que sea que funcione para ti.
Pero ahora se está
volviendo mucho más importante que nunca. ¿Sabes cuál es el
consejo más antiguo?: Conócete a ti mismo. En el pasado no había
competencia.
Si vivías en la antigua Atenas y Sócrates llegase y
dijese:
"Conócete a ti mismo. Es buen para ti".
Y tú dijeses:
"No, estoy muy ocupado. Tengo un olivar con el que tengo que
lidiar, no tengo tiempo".
Así que no llegaste a conocerte mejor,
pero no había nadie más que compitiera contigo. Ahora tienes una
competencia seria. Así que necesitas conocerte mejor.
En segundo
lugar, como individuo, si hablamos de lo que le está pasando a
la sociedad, deberías darte cuenta de que no puedes hacer mucho
por ti mismo.
Únete a una organización. Si realmente te
preocupara esto, esta semana únete a alguna organización.
Cincuenta personas que trabajan juntas son una fuerza mucho más
poderosa que 50 individuos, cada uno de los cuales es un
activista. Es bueno ser un activista.
Es mucho mejor ser miembro
de una organización. Y luego hay otros métodos probados y
comprobados en la política. Tenemos que volver a este lío de
hacer regulaciones políticas y tomar decisiones sobre todo esto.
Quizá sea la más importante.
La política se trata de
poder. Y
aquí es donde está el poder ahora mismo.
TH: Creo que existe la tentación de decir OK, ¿cómo podemos
protegernos?
Y cuando esta conversación se traslada al uso de mi smartphone, te aconsejas:
"Oh, voy a configurar mi teléfono en
escala de grises. Oh, apagaré las notificaciones".
Pero lo que
falta es que vives dentro de un tejido social.
Caminamos afuera.
Mi vida depende de la calidad de los pensamientos, creencias y
vidas de otras personas.
Si dices hola, soy un niño, soy un adolescente y no quiero que
me importe el número de me gustas que tengo, así que voy a dejar
de usar Snapchat o Instagram. No quiero que me quiten mi
autoestima en relación a los likes.
Puedo decir que no quiero
usar esas cosas pero todavía vivo en un tejido social donde
todas mis otras oportunidades sexuales, oportunidades sociales,
donde la gente habla de esas cosas, si sólo usan Instagram,
tengo que participar en ese tejido social.
Así que creo que
tenemos que elevar la conversación, ¿Cómo me aseguro de que no
estoy siendo pirateado?
No es sólo una conversación individual. Queremos que la sociedad no sea hackeada, lo que va hasta el
punto político y de qué manera nos movilizamos políticamente
como grupo para cambiar toda la industria tecnológica.
NT: Así que ese es el primer paso en esta pregunta de tres
pasos.
¿Qué pueden hacer los individuos? Conócete a ti mismo,
haz que la sociedad sea más resistente, haz que la sociedad sea
menos hackeable.
¿Qué hay de la transmisión entre la
supercomputadora y el humano? ¿Cuáles son las reglas y cómo
debemos pensar en cómo limitar la capacidad de la
supercomputadora para hackearte?
YNH: Esa es una gran pregunta.
TH: En efecto, la gran pregunta actual.
NT: ¡Por eso estamos aquí!
YNH: En esencia, creo que debemos aceptar el hecho de que no
podemos evitarlo por completo. Y no es por la IA, es por la
biología.
Es sólo el tipo de animales que somos, y el tipo de
conocimiento que ahora tenemos sobre el cuerpo humano, sobre el
cerebro humano. Hemos llegado a un punto en el que esto es
realmente inevitable.
Y ni siquiera necesitas un sensor
biométrico, puedes usar una cámara para saber cuál es mi presión
arterial. Lo que está pasando ahora, y a través de eso, lo que
me está pasando emocionalmente.
Así que yo diría que necesitamos
reconceptualizar completamente nuestro mundo. Y por eso empecé
diciendo que sufrimos de empobrecimiento filosófico, que
seguimos bajo las ideas del siglo XVIII, que fueron buenas
durante dos o tres siglos, pero que simplemente no son adecuadas
para entender lo que está sucediendo en este momento.
Y es por
eso que también pienso que la filosofía es una de las mejores
apuestas.
NT: A veces bromeo con que mi esposa estudió filosofía y danza
en la universidad, que en ese entonces parecían las dos peores
profesiones porque no se puede conseguir un trabajo en ninguna
de ellas.
Pero ahora son como las dos últimas cosas que serán
reemplazadas por robots.
TH: Creo que Yuval tiene razón.
Creo que, a menudo, esta
conversación hace que la gente llegue a la conclusión de que no
hay nada sobre la elección humana o los sentimientos de la mente
humana que valga la pena respetar. Y no creo que ese sea el
punto.
Creo que el punto es que
necesitamos un nuevo tipo de
filosofía que reconozca un cierto tipo de pensamiento o proceso
cognitivo o proceso conceptual o proceso social que queremos.
Por ejemplo [James] Fishkin es un profesor de Stanford que ha
trabajado en democracia deliberativa y ha demostrado que si se
obtiene una muestra aleatoria de gente en una habitación de
hotel durante dos días y se cuenta con expertos que vienen a
informarles sobre un montón de cosas, cambian de opinión sobre
los temas, pasan de estar polarizados a estar menos polarizados,
pueden llegar a un mayor acuerdo.
Así que creo que todavía
estamos atrapados en un traje de carne de mente-cuerpo, no
estamos saliendo de él, así que mejor aprendemos cómo lo usamos
de una manera que saca a relucir a los ángeles superiores de
nuestra naturaleza, las partes más reflexivas de nosotros
mismos.
Creo que lo que los diseñadores de tecnología necesitan es
hacerse esa pregunta. Vamos a tomar YouTube de nuevo.
¿Cuál es
la diferencia con un adolescente? Vayamos al video del ukelele.
Es algo muy común en YouTube. Hay muchos videos de ukeleles,
cómo tocar el ukelele. ¿Qué pasa en ese momento en el que se
recomiendan otros vídeos de ukelele?
Bueno, en realidad hay un
requerimiento de alguien que quiere aprender a tocar el ukelele,
pero la computadora no lo sabe, sólo está recomendando más
videos de ukelele.
Pero si realmente supiera eso de ti en lugar
de sólo decir, aquí hay infinitos videos de ukelele para ver,
podría decir aquí están tus 10 amigos que saben cómo tocar el
ukelele que tú no sabes tocar y puedes ir a pasar el rato con
ellos.
Básicamente podría poner esas opciones al principio del
menú de recomendaciones.
YNH: El sistema en sí mismo puede hacer cosas asombrosas por
nosotros.
Sólo tenemos que darle la vuelta, que sirva a nuestros
intereses, sea lo que sea y no a los intereses de las
corporaciones o del gobierno.
Ahora que nos damos cuenta de que
nuestros cerebros pueden ser pirateados, necesitamos un
antivirus para el cerebro, al igual que tenemos uno para el
ordenador. Y puede funcionar sobre la base de la misma
tecnología.
Digamos que tienes una IA que te monitorea todo el
tiempo, las 24 horas del día. ¿Qué es lo que escribes? ¿Qué es
lo que ves? Todo.
Pero esta IA te está sirviendo como una
responsabilidad fiduciaria. Y llega a conocer tus debilidades, y
al conocer sus debilidades puede protegerte contra otros agentes
que intentan hackearte y explotar tus debilidades.
Así que si
tienes debilidad por los vídeos de gatos divertidos y pasas una
enorme cantidad de tiempo, una cantidad desmesurada de tiempo,
sólo mirando, sabes que no es muy bueno para ti, pero no puedes
dejar de hacer clic, entonces la IA intervendrá, y siempre que
estos divertidos vídeos de gatos intenten aparecer, la IA dirá
no, no, no, no, no, no.
Y te mostrará tal vez un mensaje de que
alguien acaba de tratar de hackearte tal y como recibes mensajes
acerca de alguien que acaba de tratar de infectar tu ordenador
con un virus.
Quiero decir, lo más difícil para nosotros es
admitir nuestras propias debilidades y prejuicios. Si tienes un
prejuicio contra Trump o contra los partidarios de Trump, muy
fácilmente creerías cualquier historia, por muy descabellada y
ridícula que sea. Historias como que Trump cree que el mundo es
plano. Trump está a favor de matar a todos los musulmanes.
Usted
haría clic en eso. Este sería tu sesgo. Y la IA lo sabrá, y es
completamente neutral, no sirve a ninguna entidad ahí fuera.
Sólo llega a conocer tus debilidades y prejuicios y trata de
protegerte contra ellos.
NT: ¿Pero cómo aprende que es una debilidad y un sesgo? ¿Y no
algo que te guste de verdad?
TH: Aquí es donde creo que necesitamos un marco filosófico más
rico. Porque si lo tienes, entonces puedes hacer que eso sea
comprensible.
Así que si un adolescente está sentado allí y en
ese momento está viendo el video de la dieta y luego se les
muestra el video de la anorexia. Imagínate en el lugar de un
ingeniero de 22 años que fue a Stanford, un informático,
pensando:
¿Qué puedo mostrarles que es lo perfecto?
Tú tuviste
un psicólogo del desarrollo infantil de 80 años de edad que
estudió con los mejores psicólogos del desarrollo infantil y
pensó en ese tipo de momentos que normalmente suceden en un
adolescente a los 13 años de edad, un sentimiento de
inseguridad, desarrollo de la identidad, como la
experimentación.
¿Qué sería lo mejor para ellos?:
tenemos que
comprender primero nuestras vulnerabilidades.
No es como si esto
fuese un futuro de ciencia ficción. Este es el estado actual.
Así que en realidad estamos pensando en cómo navegar a un estado
real de cosas que queremos, probablemente no queremos que un
asistente de IA sea un tipo de herramienta opcional que solo
algunas personas ricas pueden permitirse, probablemente queremos
que sea horneado en la forma en que la tecnología funciona en
primer lugar, de modo que tenga una responsabilidad fiduciaria
para con nuestros mejores, sutiles, compasivos y vulnerables
intereses.
NT: Entonces, ¿tendremos asistentes de IA patrocinados por el
gobierno? Tendremos corporaciones que nos vendan asistentes de
IA pero que los subvencionen, así que no son sólo los ricos los
que tienen compañeros de IA realmente buenos?
TH: Aquí es donde entra en juego la conversación sobre el modelo
de negocio.
YNH: Una cosa es cambiar la forma de hacerlo: si vas a la
universidad y aprendes ciencias de la computación, una parte
integral del curso es aprender sobre ética, sobre la ética de la
codificación.
Creo que es extremadamente irresponsable que se
puede tener un título en informática y en codificación, que se
pueden diseñar todos estos algoritmos que ahora dan forma a la
vida de las personas, y que no se tenga ningún conocimiento para
pensar ética y filosóficamente sobre lo que se está haciendo.
Estaba pensando en términos de tecnicismos puros o en términos
económicos.
NT: Ahora déjame preguntarte algo que ha surgido un par de veces
que me he estado preguntando.
Cuando estabas dando el ejemplo
del ukelele, tal vez deberías ir a ver a tus amigos que tocan al
ukelele, deberías ir a visitarlos. En tu libro dices que uno de
los momentos cruciales para
Facebook llegará cuando un ingeniero
se dé cuenta de que lo mejor para la persona y para la comunidad
es que deje su ordenador.
¿Y qué hará Facebook con eso?
Parece,
desde una perspectiva moral, que una plataforma, si se da cuenta
de que sería mejor que te desconectaras y vieras a alguien,
debería animarte a que lo hicieras. Pero entonces, perderán su
dinero y serán superados.
Entonces, ¿cómo llegas al punto en el
que el algoritmo, la plataforma, empuja a alguien en esa
dirección?
TH: Aquí es donde esta conversación sobre el modelo de negocio
es tan importante y también por qué el papel de Apple y Google
es tan importante porque están antes que el modelo de negocio de
todas estas aplicaciones que quieren robar tu tiempo y maximizar
la atención.
Android e iOS, para no hacer esta conversación demasiado técnica
o centrada en la industria, ¿a quién debería estar sirviendo?
¿Quieren que las aplicaciones sean lo más exitosas posible?
¿Hacer que pases más tiempo con ellas, maximizando la soledad,
la alienación?
O deberían ser un asistente de IA de nuestros
intereses más profundos, de nuestras vidas físicas, de nuestras
comunidades físicas.
Resulta que estar dentro de la comunidad y
tener contacto cara a cara puede ser mejor idea. El
confinamiento solitario es el peor castigo que le damos a los
seres humanos.
Tenemos tecnología que básicamente está
maximizando el aislamiento porque necesita maximizar el tiempo
que permanecemos en la pantalla.
Por lo tanto, creo que una
pregunta es,
¿cómo pueden Apple y Google mover a toda su empresa
para que sea una responsabilidad con la sociedad?
Facebook
también podría cambiar su modelo de negocio hacia el blockchain
en el que teóricamente están trabajando y también los pagos de
mensajería.
Si pasan de un modelo de negocio basado en la
publicidad a los micropagos, en realidad podrían cambiar el
diseño de algunas de esas cosas.
Podría haber también equipos
enteros de ingenieros en los News Feed que sólo piensen en lo
que es mejor para la sociedad, aunque la gente podría
preguntarse, ¿quién es Facebook para decir lo que es bueno para
la sociedad?.
NT: Esto me lleva a una de las cuestiones sobre las que más me
gustaría escuchar vuestros pensamientos, tanto Apple como Google
han hecho esto hasta cierto punto en el último año. Y Facebook
lo ha hecho.
Creo que cada ejecutivo de cada compañía de
tecnología ha dicho "tiempo bien empleado" en algún momento del
año pasado.
¿Realmente creéis que estamos yendo en la dirección
correcta en este momento porque el cambio está ocurriendo y la
gente se lo está planteando? ¿O creéis que seguimos yendo en la
dirección equivocada?
YNH: Creo que en el mundo de la tecnología estamos yendo en la
dirección correcta en el sentido de que la gente se está dando
cuenta de lo que está en juego.
La gente se está dando cuenta
del inmenso poder que tiene en sus manos - estoy hablando de la
gente en el mundo de la tecnología - y se está dando cuenta de la
influencia que tienen en la política, en la sociedad, y sobre la
sociedad.
La mayoría de ellos reaccionan, no de la mejor manera
posible, pero sin duda de manera responsable.
Esto está ocurriendo y tenemos que pensar muy bien qué hacer con
ello. Se ha dado el primer paso, el de darse cuenta de lo que
está sucediendo y asumir alguna responsabilidad.
El lugar donde
vemos un desarrollo muy negativo es a nivel global porque todo
lo que se ha dicho hasta ahora ha sido una especie de charla
interna de Silicon Valley, California, Estados Unidos.
Quiero
decir que toda el debate que hemos tenido hasta ahora se ha
basado en lo que está sucediendo en las democracias liberales y
en los mercados libres.
En algunos países, tal vez no tengas
otra opción.
Sólo tienes que compartir toda tu información y hacer lo que el
algoritmo patrocinado por el gobierno te dice que hagas.
Otra
complicación es la carrera armamentista de la IA que hace cinco
años, o incluso hace dos años, no existía, ahora es quizás la
prioridad número uno en muchos lugares del mundo, hay una
carrera armamentista sobre la IA, y cada país, necesita ganar
esta carrera.
Cuando entras en una situación de carrera
armamentista, entonces se convierte rápidamente en una carrera
hacia abajo, porque aunque sea una mala idea hacer esto lo están
haciendo y eso les da alguna ventaja a los países embarcados en
esta carrera y no quieren quedarse atrás.
Nosotros somos los
buenos. No queremos hacerlo, pero no podemos permitir que los
malos estén delante de nosotros, así que debemos hacerlo
primero.
Y si le preguntas a la otra gente, ellos dirán lo
mismo. Y esto es un acontecimiento extremadamente peligroso.
TH: Es un dilema del prisionero. Es una trampa multipolar.
Quiero decir, de todos los actores, nadie quiere ser el malo.
NT: E incluso a un nivel más profundo si quieres dotar de ética
a la IA, esto ralentizaría tu carrera.
TH: Correcto. Uno de los retos - una de las cosas de las que creo
que hablamos cuando nos conocimos por primera vez - fue la ética
de la velocidad, de la velocidad del reloj.
Esencialmente
estamos compitiendo sobre quién puede ir más rápido para hacer
estas cosas, pero más rápido significa que es más probable que
sea peligroso, menos probable que sea seguro.
Así que
básicamente estamos corriendo lo más rápido posible para crear
esta IA, pero probablemente deberíamos ir lo más despacio
posible para crearla.
La carrera es sobre quién puede programar
a los seres humanos más rápido y quién es más eficaz en la
manipulación de las guerras culturales en todo el mundo.
Creo
que tenemos que reflexionar cómo podemos ralentizar esto y crear
un ritmo sensato. Probablemente no queramos que la sociedad se
apresure a tomar 100 decisiones por hora sobre algo que
realmente importa.
Entonces, ¿cuál es la velocidad correcta?
Creo que tenemos que tener tecnología que nos guíe hacia ese
tipo de procesos de toma de decisiones.
¿Está mejorando o empeorando el problema?
NT: Volviendo a la pregunta original.
Sois optimistas sobre
algunas de las cosas que están sucediendo en este pequeño lugar?
o ¿pesimistas sobre la completa destrucción de la humanidad?
TH: Creo que el punto de Yuval es correcto, las compañías de
tecnología de EE.UU. son más grandes que muchos gobiernos:
Facebook controla los pensamientos de 2.200 millones de
personas. Mark Zuckerberg es editor jefe de 2.200 millones de
pensamientos de la gente.
Pero también hay gobiernos mundiales o
gobiernos nacionales que se rigen por un conjunto diferente de
reglas. Creo que las compañías de tecnología están despertando
muy, muy lentamente a esto.
Hasta ahora, por ejemplo, con el
lema del Tiempo Bien Gastado, vamos a ayudar a la gente, porque
son vulnerables acerca de cuánto tiempo pasan, estableceremos un
límite en cuanto a cuánto tiempo pasan.
Pero eso no aborda
ninguno de estos temas más importantes sobre cómo se pueden
programar los pensamientos de una democracia o cómo la salud
mental y la alienación entre los adolescentes es cada vez peor, se duplicaron las tasas de suicidio entre las adolescentes
en los últimos ocho años.
Vamos a tener que tener una visión mucho más completa y una
reestructuración de la industria tecnológica para pensar en lo
que es bueno para la gente. Y va a haber una transición
incómoda, he usado esta metáfora, es como con el cambio
climático.
Hay ciertos momentos en la historia en los que una
economía está sostenida por algo que no queremos.
Así que el
mayor ejemplo de esto es la esclavitud en el siglo XIX. Hubo un
momento en que la esclavitud estaba apuntalando toda la economía
mundial. No se puede decir que no queremos hacer esto más,
simplemente saquémoslo de la economía. Toda la economía se
derrumbará si haces eso.
Pero el Imperio Británico, cuando
decidió abolir la esclavitud, tuvo que renunciar al 2 por ciento
de su PIB cada año durante 60 años y fue capaz de hacer esa
transición durante un período de transición.
No estoy
equiparando la publicidad o la programación de los seres humanos
a la esclavitud pero hay una estructura similar de toda la
economía ahora; si se mira el mercado de valores, como una gran
parte del valor, es impulsada por estos sistemas de programación
publicitaria basados en los seres humanos y los animales.
Si
queremos seguir con ese modelo, el modelo publicitario, en
realidad no podemos permitirnos esa transición.
NT: Yuval, ¿estás de acuerdo en que esa es una de las cosas en
las que tenemos que pensar al tratar de arreglar el sistema
mundial en las próximas décadas?
YNH: Es una de las cosas. Pero una vez más, el problema del
mundo, de la humanidad, no es sólo el modelo publicitario.
Quiero decir que las herramientas básicas fueron diseñadas, hace
10 o 20 años; tenías a las personas más brillantes del mundo,
resolviendo este problema de, ¿cómo hago que la gente haga clic
en los anuncios?
Para algunas de las personas más inteligentes
de la historia, ese era su trabajo, resolver este problema. Y lo
resolvieron.
Y luego los métodos que usaron inicialmente para
vendernos ropa interior, gafas de sol y vacaciones en el Caribe
y cosas por el estilo, fueron secuestrados y convertidos en
armas, y ahora se usan para vendernos todo tipo de cosas,
incluyendo opiniones políticas e ideologías enteras.
Y ya no
está bajo el control del gigante tecnológico de Silicon Valley,
que fue el pionero de estos métodos. Estos métodos están ahí
fuera. Así que incluso si consigues que Google y Facebook se
rindan por completo, el gato está fuera de la bolsa.
La gente ya
sabe cómo hacerlo. Y hay una carrera armamentista. Así que sí,
tenemos que resolver este asunto de la publicidad. Es muy
importante.
Pero no resolverá el problema humano. Y creo que
ahora la única manera realmente efectiva de hacerlo es a nivel
mundial.
Y para ello necesitamos una cooperación global en la
regulación de la IA, en la regulación del desarrollo de la IA y
de la biotecnología, y, por supuesto, vamos en la dirección
opuesta de la cooperación global.
TH: Estoy de acuerdo en que existe esta noción de teoría de
juegos.
Claro que
Facebook y
Google podrían hacerlo, pero eso no
importa porque el asunto está fuera de control, y los gobiernos
lo van a hacer, y otras compañías tecnológicas lo van a hacer, y
la infraestructura tecnológica de Rusia lo va a hacer.
Entonces,
¿cómo evitas que suceda?
No quiero equiparar la esclavitud otra vez con este tema, pero
cuando el Imperio Británico decidió abolir la esclavitud y
restar su dependencia hacia ella en relación a su economía, en
realidad estaban preocupados de que si lo hacíamos, la economía
de Francia seguiría siendo impulsada por la esclavitud y se
dispararían mucho más allá de nosotros.
Así que desde la
perspectiva de la competencia no podemos hacer esto, pero la
forma en que llegaron allí fue convirtiéndolo en una cuestión de
derechos humanos universales y globales.
Eso llevó más tiempo,
pero creo que esto es como dice Yuval, estoy de acuerdo en que
se trata de una conversación global sobre la naturaleza humana y
la libertad humana.
No sé si existe tal cosa, pero al menos me
refiero al tipo de libertad humana que queremos preservar y que
creo que es algo que realmente interesa a todos, vamos a avanzar
en esa dirección manteniendo un debate global al respecto.
NT: Terminemos con un consejo para alguien que esté viendo este
vídeo.
Acaban de ver un video de Alex Jones y el algoritmo de YouTube ha cambiado y lo han enviado aquí, y de alguna manera
han llegado a este punto.
Tienen 18 años, quieren dedicar su
vida a que la dinámica entre las máquinas y los seres humanos no
se vuelva explotadora y se convierta en una en la que podamos
seguir viviendo nuestras vidas plenas.
¿Qué deberían hacer o qué
consejo les daría a estos jóvenes?
YNH: Yo diría, conócete a ti mismo mucho mejor y hazte la menor
cantidad posible de ilusiones sobre ti mismo. Si un deseo
aparece en tu mente, no digas bien, este es mi libre albedrío. Elegí esto, por lo tanto es bueno, debo hacerlo.
Explora mucho
más profundamente. En segundo lugar, como dije, únete a una
organización. Hay muy poco que puedes hacer como individuo por
ti mismo.
Estos son los dos consejos más importantes que podría
dar a una persona que nos está observando ahora.
TH: Tenemos que pasar de un modelo del siglo XVIII de cómo
trabajan los seres humanos a un modelo del siglo XXI de cómo
trabajan los seres humanos.
Nuestro trabajo es tratar de
coordinar una especie de movimiento global hacia la solución de
algunos de estos problemas en torno a la tecnología humana.
Creo
como Yuval dice que no puedes hacerlo solo. No es tan fácil como
cambiar la escala de grises de mi teléfono o hacer una petición
a mi congresista. Este es un movimiento global.
La buena noticia
es que nadie quiere llegar al futuro distópico que se plantea en
lo que estamos hablando. No es como si alguien dijera estoy muy
emocionado con esta distopía, sólo quiero seguir haciendo lo que
estamos haciendo.
Nadie quiere eso.
Tenemos que alejarnos de la
dirección a la que vamos. Creo que todo el mundo debería estar
de acuerdo en eso.
NT: Gracias por la charla y gracias por estar aquí.
Gracias, Tristan. Gracias, Yuval.
|