| 
			  
			
			
 
  
			
			por Nicholas Thompson04 Octubre 
			04 2018
 
			del 
			Sitio Web 
			Wired 
			traducción de  
			Chitauri 
			06 Octubre 2018 
			del 
			Sitio Web 
			Chitauri 
			
			
			Versión original en ingles 
			  
			  
			  
			  
			 
			Yuval 
			Noah Harari y Tristan Harris  
			  
			  
			Transcripción traducida
 
			del vídeo de una charla para la 
			Web 'Wired'
			 
			entre Yuval Noah Harari, Tristan Harris 
			 
			y el entrevistador 
			de dicha Web, 
			 
			Nicholas Thompson. 
			
 
 Cuando tienes 2 años, tu madre sabe más de ti de lo que tú sabes.
 
			  
			A medida que envejeces, 
			empiezas a entender cosas de tu mente que ni siquiera ella sabe.
			 
			  
			Pero entonces, dice 
			
			Yuval Noah Harari, otro competidor se une a la carrera:  
				
				"Tienes a esta 
				corporación o gobierno acechándote, y aunque están muy lejos de 
				tu madre, te conocerán mejor que ella."  
			Amazon pronto sabrá 
			cuándo necesitas bombillas justo antes de que se quemen.  
			  
			YouTube sabe cómo 
			mantenerte mirando fijamente a la pantalla durante mucho tiempo 
			aunque te interese parar. Un anunciante en el futuro podría conocer 
			tus preferencias sexuales antes de que sean claras para ti (y 
			ciertamente las conocerán antes de que se lo digas a tu madre.)
 Recientemente, hablé con Harari, el autor de tres de los libros más 
			vendidos, y 
			
			Tristan Harris, que dirige el 
			
			Centro de 
			Tecnología Humanitaria y que ha desempeñado un papel importante en 
			hacer que el "tiempo bien empleado" sea quizás la frase más debatida 
			en Silicon Valley en 2018.
 
			  
			Son dos de las personas 
			más inteligentes del mundo de la tecnología, y cada uno de ellos 
			habló elocuentemente sobre el autoconocimiento y sobre cómo los 
			humanos pueden hacerse más difíciles de hackear.  
			  
			Como dijo Harari,  
				
				"Ahora nos 
				enfrentamos no sólo a una crisis tecnológica, sino a una crisis 
				filosófica". 
				  
				    
			Video   
              
			 
			        
			Transcripción 
			traducida al español
 
				
				Nicholas Thompson: 
				Tristán, cuéntame un poco sobre lo que haces y luego Yuval, tú 
				también.
 Tristan Harris: Soy director del Centro de Tecnología 
				Humanitaria, donde nos concentramos en realinear la tecnología 
				con un concepto humanista.
 
				  
				Y antes de eso era un diseñador ético 
				en Google, donde estudié la ética de la persuasión humana.
 Yuval Noah Harari: Soy historiador y trato de entender de 
				dónde viene la humanidad y hacia dónde nos dirigimos.
 
 
				
 
				NT: Empecemos por escuchar cómo se conocieron, porque sé que eso 
				se remonta a hace bastante tiempo. ¿Cuándo os conocisteis por 
				primera vez?
 
 YNH: Curiosamente, en una expedición a la Antártida, fuimos 
				invitados por el gobierno chileno al Congreso del Futuro para 
				hablar sobre el futuro de la humanidad y una parte del Congreso 
				fue una expedición a la base chilena en la Antártida para ver el 
				calentamiento global con nuestros propios ojos. Todavía hacía 
				mucho frío y había mucha gente interesante en esta expedición.
 
 TH: Muchos filósofos y premios Nobel. Y creo que conectamos 
				particularmente con 
				
				Michael Sandel, que es un filósofo realmente 
				asombroso de la filosofía moral.
 
 
 
				NT: Es casi como un reality show. Me hubiera encantado verlo 
				todo. Escribís sobre cosas diferentes, habláis de cosas 
				diferentes pero hay muchas similitudes.
 
				  
				Y uno de los temas clave 
				es la noción de que nuestras mentes no funcionan de la manera en 
				que a veces pensamos que lo hacen.  
				  
				No tenemos tanta influencia 
				sobre nuestras mentes como quizás creíamos hasta ahora. Tristán, 
				¿por qué no empiezas a hablar de eso y luego sigue Yuval 
				prosigue?
 TH: Sí, aprendí mucho de esto en una de las primeras charlas de 
				Yuval, donde habla de la democracia y planteaba la siguiente 
				cuestión,
 
					
					"¿Dónde deberíamos poner a la autoridad en una 
				sociedad?".  
				Y dónde debemos ponerla es en las opiniones y 
				sentimientos de la gente.
 Pasé los últimos 10 años estudiando la persuasión, desde que era 
				ilusionista cuando era niño, donde aprendes que hay cosas que 
				funcionan en todas las mentes humanas.
 
				  
				No importa si tienen un 
				doctorado, si son físicos nucleares, qué edad tienen. No es 
				como, si hablas japonés no puedo hacer este truco contigo, no va 
				a funcionar. Funciona con todo el mundo. Así que de alguna 
				manera existe esta disciplina que trata de hazañas universales 
				en todas las mentes humanas.  
				  
				Y luego estuve en el 
				
				Laboratorio de 
				Tecnología Persuasiva de Stanford, que enseña a los estudiantes 
				de ingeniería cómo aplicar los principios de la persuasión a la 
				tecnología.  
				  
				¿Podría la tecnología estar hackeando sentimientos 
				humanos, actitudes, creencias, comportamientos para mantener a 
				la gente ocupada con los productos?  
				  
				Y creo que eso es lo que 
				ambos compartimos, es que la mente humana no es la raíz segura 
				de la autoridad que creemos que es, y si queremos tratarla de 
				esa manera vamos a tener que entender qué es lo que hay que 
				proteger primero.
 YNH: Creo que ahora nos enfrentamos realmente, no sólo a una 
				crisis tecnológica, sino a una crisis filosófica.
 
				  
				Porque hemos 
				construido nuestra sociedad, sin duda la democracia liberal con 
				elecciones y el libre mercado, etc., sobre ideas filosóficas del 
				siglo XVIII que son simplemente incompatibles no sólo con los 
				descubrimientos científicos del siglo XXI, sino sobre todo con 
				la tecnología que tenemos ahora a nuestra disposición.  
				  
				Nuestra 
				sociedad se basa en las ideas de que el votante sabe mejor que 
				nadie, que el cliente siempre tiene razón, que la autoridad 
				última está, como dijo Tristan, con los sentimientos de los 
				seres humanos y esto supone que los sentimientos humanos y las 
				opciones humanas son esa arena sagrada que no se puede hackear, 
				que no se puede manipular.  
				  
				En última instancia, mis elecciones, 
				mis deseos reflejan mi libre albedrío y nadie puede acceder a 
				eso o tocarlo. Y esto nunca fue verdad. Pero no pagamos un costo 
				muy alto por creer en este mito en los siglos XIX y XX porque 
				nadie tenía una tecnología para hacerlo.  
				  
				Ahora, la gente - algunas personas 
				- las corporaciones, los gobiernos están 
				jugando con la tecnología para hackear a los seres humanos.  
				  
				Tal 
				vez el hecho más importante de vivir en el siglo XXI es que 
				ahora somos animales hackeables.       
			Hackear a un humano 
				
				NT: Explica lo que significa hackear a un ser humano y porqué 
				lo que se puede hacer ahora es diferente de lo que se podía 
				hacer hace 100 años.
 
 YNH: Piratear a un ser humano es entender lo que está sucediendo 
				dentro de ti a nivel del cuerpo, del cerebro, de la mente, para 
				que puedas predecir lo que la gente hará.
 
				  
				Puedes entender cómo 
				se sienten y, por supuesto, una vez que entiendas y predigas, 
				también puedes manipular, controlar e incluso reemplazar. Y, por 
				supuesto, no se puede hacer perfectamente y fue posible hacerlo 
				hasta cierto punto también hace un siglo.  
				  
				Pero la diferencia en 
				el nivel es significativa. Yo diría que la verdadera clave es si 
				alguien puede entenderte mejor de lo que te entiendes a ti 
				mismo. Los algoritmos que intentan hackearnos, nunca serán 
				perfectos.  
				  
				No existe tal cosa como entender perfectamente todo o 
				predecir todo. No necesitas ser perfecto, sólo necesitas ser 
				mejor que el ser humano promedio.
 
 
				NT: ¿Y estamos ahí ahora? ¿O te preocupa que estemos a punto de 
				llegar?
 
 YNH: Creo que Tristán podría ser capaz de responder donde 
				estamos ahora mejor que yo, pero supongo que si no estamos allí 
				ahora, nos estamos acercando muy rápidamente.
 
 TH: Creo que un buen ejemplo de esto es YouTube.
 
				  
				Abres ese video 
				de YouTube que tu amigo te envía después de la hora del 
				almuerzo. Cuando vuelves a tu ordenador y piensas bien, sé que 
				esas otras veces acabo viendo dos o tres vídeos y acabo siendo 
				absorbido por él, pero esta vez va a ser muy diferente.  
				  
				Sólo voy 
				a ver este video y de alguna manera, eso no es lo que pasa.  
				  
				Te 
				levantas de un trance tres horas más tarde y dices:  
					
					"¿Qué 
				demonios acaba de pasar?".  
				Y es porque no te diste cuenta de que 
				tenías una supercomputadora apuntando a tu cerebro.  
				  
				Así que 
				cuando abres ese video estás activando los miles de millones de 
				dólares de potencia de computación de Google y ellos han visto 
				lo que alguna vez ha hecho que 2 mil millones de animales 
				humanos hagan clic en otro vídeo.  
				  
				Y sabe mucho más sobre lo que 
				va a ser el movimiento de ajedrez perfecto para jugar contra tu 
				mente. Si piensas en tu mente como un tablero de ajedrez, y 
				crees que sabes cuál es el movimiento perfecto para jugar, sólo 
				verás ese vídeo. Pero en el tablero de ajedrez no se pueden ver 
				tantas jugadas por delante.  
				  
				Pero la computadora ve tu mente y 
				dice:  
					
					"No, no, no, no. He jugado mil millones de simulaciones de 
				este juego de ajedrez antes en estos otros animales humanos que 
				miran YouTube", y va a ganar.  
				Piensa en cuando 
				
				Garry Kasparov 
				pierde contra Deep Blue.  
				  
				Garry Kasparov puede ver muchísimas 
				jugadas en el tablero de ajedrez. Pero no puede ver más allá de 
				cierto punto tal y como un ratón no puede ver tantos movimientos 
				hacia adelante en un laberinto, pero un humano puede ver más 
				movimientos hacia adelante y entonces Garry puede ver aún más 
				movimientos adelante.  
				  
				Pero cuando Garry pierde contra IBM Deep 
				Blue, fue un jaque mate contra la humanidad para siempre porque 
				era el mejor jugador de ajedrez humano. Así que no es que 
				estemos perdiendo completamente nuestra naturaleza humana y 
				entres en YouTube y te haga adicto por el resto de tu vida y 
				nunca dejes la pantalla.  
				  
				Pero en todas partes donde se enciende 
				Internet hay básicamente una supercomputadora apuntando a tu 
				cerebro, jugando al ajedrez contra tu mente, y va a ganar mucho 
				más a menudo que perder.
 
 
				NT: Hablemos de esa metáfora porque el ajedrez es un juego con 
				un ganador y un perdedor. Pero YouTube también va a recomendar 
				este vídeo en particular a la gente, que espero que sea 
				esclarecedor e iluminador.
 
				  
				Entonces, ¿el ajedrez es realmente la 
				metáfora correcta? Un juego con un ganador y un perdedor.
 TH: Bueno, la pregunta es, ¿Cuál es realmente el juego que se 
				está jugando?
 
				  
				Así que si el juego que se estaba jugando es,  
					
					Hey 
				Nick, ve a meditar a una habitación durante dos horas y luego 
				vuelve a mí y dime qué es lo que realmente quieres ahora mismo 
				en tu vida.  
				Y si YouTube está usando 2 billones de animales 
				humanos para calcular basándose en todos los que alguna vez han 
				querido aprender a tocar el ukelele, puede decir: 
					
					"Aquí está el 
				video perfecto que tengo que enseñar más tarde y que puede ser 
				genial".  
				El problema es que en realidad no le importa lo que que 
				quieres, sólo le importa lo que te mantendrá en la pantalla.  
				  
				Lo 
				que mejor funciona para mantener a una adolescente viendo un 
				video de dieta en YouTube es decir que aquí hay un video de 
				anorexia.
 
 
				NT: ¿Qué pasa con esta conversación?
 
 TH: ¡Sí, supongo que va a depender de verdad!
 
				  
				El otro problema 
				es que también se pueden piratear estas cosas, por lo que hay 
				gobiernos que realmente pueden manipular la forma en que 
				funciona el sistema de recomendaciones.  
				  
				Y Yuval dijo que estos 
				sistemas están fuera de control y que los algoritmos están 
				funcionando donde 2.000 millones de personas pasan su tiempo. El 
				setenta por ciento de lo que la gente ve en YouTube está 
				impulsado por las recomendaciones del algoritmo.  
				  
				La gente piensa 
				que lo que ve en YouTube es una elección. La gente está sentada 
				allí, se sienta allí, piensa, y luego elige. Pero eso no es 
				verdad.  
				  
				El setenta por ciento de lo que la gente está viendo son 
				los videos recomendados en el lado derecho, lo que significa el 
				70 por ciento de los 1.900 millones de usuarios, (eso es más que 
				el número de seguidores del Islam, más o menos el mismo número 
				de seguidores del cristianismo), están viendo esas 
				recomendaciones en YouTube durante 60 minutos al día - ese es el 
				tiempo promedio que la gente pasa en YouTube.  
				  
				Así que tienes 60 
				minutos, y el 70 por ciento está poblado por una computadora. La 
				máquina está fuera de control.  
				  
				Porque si pensabas que las 
				
				teorías de conspiración del 11-S eran malas en inglés, prueba 
				con las conspiraciones del 11-S en birmano y Sri Lanka y en 
				árabe. Es una especie de Frankenstein digital que está tirando 
				de todas estas palancas y dirigiendo a la gente hacia 
				direcciones diferentes.
 
 
				NT: Yuval, hemos llegado a este punto diciendo que esto te 
				asusta en relación a la democracia. Y te preocupa que la 
				democracia puede sobrevivir, creo que la frase que usas en tu 
				libro es:
 
					
					La democracia se convertirá en un espectáculo de 
				títeres.  
				Explica eso.
 YNH: Sí, quiero decir, si no se adapta a estas nuevas 
				realidades, se convertirá en un espectáculo de marionetas 
				emocional.
 
				  
				Si sigues con esta ilusión de que la elección humana 
				no puede ser hackeada, no puede ser manipulada, y podemos 
				confiar en ella completamente, y esta es la fuente de toda 
				autoridad, entonces muy pronto terminas con un espectáculo de 
				marionetas emocional.
 Y este es uno de los mayores peligros a los que nos enfrentamos 
				y es realmente el resultado de una especie de empobrecimiento 
				filosófico de dar por sentado las ideas filosóficas del siglo 
				XVIII y no actualizarlas con los hallazgos de la ciencia.
 
				  
				Y es 
				muy difícil porque le dices a la gente - la gente no quiere 
				escuchar este mensaje de que son animales hackeables, que sus 
				elecciones, sus deseos, su comprensión de quién soy yo, cuáles 
				son mis aspiraciones más auténticas, estas pueden ser realmente 
				hackeadas y manipuladas.  
				  
				Para decirlo brevemente, mi amígdala 
				puede estar trabajando para Putin.  
					
					No quiero saber esto. No 
				quiero creer eso. No, soy un agente libre. Si tengo miedo de 
				algo, es por mi culpa. No porque alguien haya plantado este 
				miedo en mi mente. Si elijo algo, es mi libre albedrío, ¿y quién 
				eres tú para decirme algo más? 
				  
				NT: Bueno, espero que Putin pronto trabaje para mi amígdala, 
				pero ese es un proyecto secundario que tengo en marcha.
 
				  
				Pero 
				parece inevitable, por lo que escribiste en tu primer libro, que 
				lleguemos a este punto, donde las mentes humanas serían pirateables y donde 
				
				las computadoras, las máquinas y
				la IA 
				tendrían una mejor comprensión de nosotros.  
				  
				Pero ciertamente no 
				es inevitable que nos lleve a resultados negativos:  
					
						
						
						¿Hemos 
				llegado al punto de no retorno? 
						
						¿Cómo evitar el punto de no 
				retorno si no hemos llegado allí? 
						
						¿Y cuáles son los puntos clave 
				de decisión a lo largo del camino? 
				YNH: Bueno, nada es inevitable en eso.  
				  
				Quiero decir que la 
				tecnología en sí se va a desarrollar. No se puede detener toda 
				la investigación en IA y no se puede detener toda la 
				investigación en biotecnología. Y las dos van juntos.  
				  
				Creo que 
				la IA recibe demasiada atención ahora, y deberíamos poner igual 
				énfasis en lo que está sucediendo en el frente de la 
				biotecnología porque para piratear a los seres humanos, se 
				necesita biología y algunas de las herramientas y conocimientos 
				más importantes, no provienen de la informática, provienen de la 
				ciencia del cerebro.  
				  
				Y muchas de las personas que diseñan todos 
				estos increíbles algoritmos, tienen experiencia en psicología y 
				ciencias cerebrales porque esto es lo que están tratando de hackear.  
				  
				¿Pero de qué debemos darnos cuenta? Podemos utilizar la 
				tecnología de muchas maneras diferentes.  
				  
				Me refiero, por 
				ejemplo, a que estamos utilizando la inteligencia artificial 
				principalmente para vigilar a las personas al servicio de las 
				empresas y los gobiernos. Pero se puede voltear en la dirección 
				opuesta.  
				  
				Podemos utilizar los mismos sistemas de vigilancia para 
				controlar el gobierno al servicio de los individuos, para 
				controlar, por ejemplo, que los funcionarios del gobierno no 
				sean corruptos. La tecnología está dispuesta a hacerlo.  
				  
				La 
				cuestión es si estamos dispuestos a desarrollar las herramientas 
				necesarias para hacerlo.
 TH: Creo que uno de los puntos más importantes de Yuval aquí es 
				que la biotecnología te permite entender, conectando un sensor 
				las características más sui generis de un individuo.
 
				  
				Una de las 
				cosas interesantes que he estado siguiendo son también las 
				formas en que se pueden determinar esas señales sin un sensor 
				invasivo. Y estábamos hablando de esto hace un segundo. Hay algo 
				llamado 
				
				Eulerian Video magnification donde apuntas con una 
				cámara de ordenador a la cara de una persona.  
				  
				Entonces, si pongo 
				una supercomputadora detrás de la cámara, puedo hacer una 
				ecuación matemática, y puedo encontrar los microimpulsos de 
				sangre en tu cara que yo como humano no puedo ver, pero que la 
				computadora puede ver, así que puedo captar tu ritmo cardíaco. 
				 
				  
				¿Qué me permite hacer eso? Puedo captar tu nivel de estrés 
				porque la variabilidad del ritmo cardíaco me da tu nivel de 
				estrés.  
				  
				Puedo señalar - hay una mujer llamada 
				
				Poppy Crum que dio 
				una charla TED este año sobre el fin de la cara de póquer (poker 
				face, cara sin emociones).  
				  
				Esa charla trata de que podemos 
				apuntar con una cámara a tus ojos y ver cuando tus ojos se 
				dilatan, lo que en realidad detecta tensiones cognitivas, cuando 
				estás teniendo dificultades para entender algo o cuando es fácil 
				entender algo. Podemos ajustar esto continuamente en función de 
				tu ritmo cardíaco, tu dilatación de los ojos.
 Echando un vistazo al caso de 
				
				Cambridge Analytica - ya sabes, que 
				se trata del pirateo de Brexit y Rusia y de todas las demás 
				elecciones de Estados Unidos - este se basaba en el conocimiento 
				de los cinco grandes rasgos de la personalidad, si conozco la 
				personalidad de Nick Thompson a través de su franqueza, 
				conciencia, extrovertimiento, simpatía y neuroticismo.
 
				  
				Y 
				basándome en tu personalidad, puedo afinar un mensaje político 
				para que sea perfecto para ti.  
				  
				Ahora todo el escándalo fue que 
				
				Facebook dejó ir estos datos para ser robados por un 
				investigador que solía hacer que la gente llenara cuestionarios 
				para averiguar cuáles son los cinco grandes rasgos de 
				personalidad de Nick?  
				  
				Pero ahora hay una mujer llamada Gloria 
				Mark en la Universidad de California en Irvine que ha hecho una 
				investigación que demuestra que se pueden obtener los cinco 
				rasgos de personalidad más importantes de la gente sólo con sus 
				patrones de clic, con una precisión del 80 por ciento.  
				  
				Así que 
				es el final de la cara de póquer, el final de las partes ocultas 
				de tu personalidad.  
				  
				Vamos a ser capaces de apuntar a los 
				animales humanos y descubrir más y más señales de ellos, 
				incluyendo sus microexpresiones, cuando sonríes y todas estas 
				cosas, tenemos cámaras de identificación de cara en todos estos 
				teléfonos. 
				  
				Así que ahora tenemos un bucle cerrado donde puedo 
				ajustar los mensajes políticos en tiempo real a tu ritmo 
				cardíaco y a tu dilatación ocular y a tu personalidad política. 
				 
				  
				Ese no es el mundo en el que queremos vivir. Es una especie de 
				distopía.
 YNH: En muchos contextos, puedes usar eso.
 
				  
				Se puede utilizar en 
				clase para averiguar si uno de los estudiantes no está 
				recibiendo el mensaje, si el estudiante está aburrido, lo que 
				podría ser algo muy bueno.  
				  
				Podría ser usado por abogados si 
				puedo leer lo que hay detrás de tu cara de póquer, y tú no 
				puedes, eso es una gran ventaja para mí.  
				  
				Puede hacerse en un 
				entorno diplomático, si dos primeros ministros se estuvieran 
				reuniendo para resolver el conflicto israelí-palestino, y uno de 
				ellos tiene un otitis y una computadora le está susurrando al 
				oído cuál es el verdadero estado emocional del otro.  
				  
				Lo que 
				sucede en el cerebro, en la mente de la persona del otro lado de 
				la mesa. ¿Y qué pasa cuando los dos lados tienen esto? Tienes 
				una especie de carrera armamentista.  
				  
				Y no tenemos ni idea de 
				cómo manejar estas cosas.
 Di un ejemplo personal cuando hablé de esto en Davos. Así que 
				hablé de todo mi enfoque acerca de estos temas, moldeado por mi 
				experiencia de salir del armario.
 
				  
				Me di cuenta de que era gay 
				cuando tenía 21 años, y que desde entonces me perseguía este 
				pensamiento. ¿Qué estuve haciendo en los últimos cinco o seis 
				años? Quiero decir, ¿cómo es posible?  
				  
				No estoy hablando de algo 
				pequeño que no sabes de ti mismo, todo el mundo tiene algo que 
				no sabes de ti mismo. ¿Pero cómo es posible que no sepas esto de 
				ti mismo?  
				  
				Y entonces el siguiente pensamiento fue que una 
				computadora y un algoritmo podría habérmelo dicho cuando tenía 
				14 años, era tan fácil con algo tan simple como seguir el 
				enfoque de mis ojos.  
				  
				Como, no sé, camino por la playa o incluso 
				miro televisión, y hay algo - lo que había en la década de 1980, 
				"Vigilantes de la playa" (la serie) o algo así - hay un tipo en 
				traje de baño y hay una chica en traje de baño y hacia dónde van 
				mis ojos. Es tan simple como eso.  
				  
				Y luego pienso, ¿Cómo habría 
				sido mi vida, primero, si lo hubiera sabido cuando tenía 14 
				años?  
				  
				Segundo, si obtuviera esta información de un algoritmo, 
				sería algo increíble, esta es la fuente de sabiduría sobre ti 
				mismo, un algoritmo que sigue tus movimientos.       
			Coca-Cola 
			vs. Pepsi
 
				
				NT: Y hay un elemento aún más espeluznante sobre el que escribes 
				en tu libro:  
					
					¿Y si Coca-Cola lo hubiera descubierto primero y te 
				hubiera vendido Coca-Cola con hombres sin camisa, cuando ni 
				siquiera sabías que eras gay? 
				YNH: ¡Bien, exactamente! Coca-Cola contra Pepsi: Coca-Cola sabe 
				esto de mí y me muestra un anuncio de un hombre sin camiseta; 
				Pepsi no sabe esto de mí porque no están usando estos 
				sofisticados algoritmos.  
				  
				Van con los anuncios normales, con la 
				chica del bikini. Y naturalmente, compro Coca-Cola, y ni 
				siquiera sé por qué. A la mañana siguiente, cuando voy al 
				supermercado, compro Coca-Cola y creo que es mi libre elección. 
				 
				  
				Elegí Coca-Cola. Pero no, fui hackeado.
 
 
				NT: Y esto es inevitable.
 
 TH: Esto es todo de lo que estamos hablando.
 
				  
				¿Y cómo puedes 
				confiar en algo que puede manipularte de esta forma? Si un 
				sistema es asimétrico - si tú sabes más de mí de lo que yo sé de 
				mí mismo, normalmente tenemos un nombre para eso en la ley.  
				  
				Así, 
				por ejemplo, cuando tratas con un abogado, le entregas tus datos 
				personales para que te ayude.  
				  
				Pero luego tienen este 
				conocimiento de la ley y saben de tu información vulnerable, así 
				que podrían manipularte con eso. Imagina un abogado que tiene 
				toda esa información personal y se la vendió a otra persona.  
				  
				Se 
				rigen por una relación diferente, que es la relación fiduciaria. 
				Ellos pueden perder su licencia si no sirven a sus intereses. Y 
				de manera similar, un médico o un psicoterapeuta. Ellos también 
				lo tienen.  
				  
				Así que hay una gran pregunta:  
					
					¿cómo entregamos 
				información sobre nosotros y decimos:  
						
						"Quiero que uses eso para 
				ayudarme"?  
				¿Con qué autoridad puedo garantizarte que vas a 
				ayudarme?
 YNH: Con el abogado, existe este marco formal. Vale, te contrato 
				para que seas mi abogado, esta es mi información. Y sabemos 
				esto. Pero estoy caminando por la calle, hay una cámara 
				mirándome.
 
				  
				Ni siquiera sé si está pasando.
 TH: Esa es la parte más engañosa. Si quieres saber lo que es 
				Facebook, imagínate a un sacerdote en una cabina de confesiones, 
				ellos escuchan las confesiones de 2 mil millones de personas.
 
				  
				Pero también te observan durante todo el día, en que haces clic, 
				en qué anuncios de Coca-Cola o Pepsi, o del hombre sin camiseta 
				y las mujeres en bikini, y en todas las conversaciones que 
				tienes con todos los demás en tu vida - porque Facebook 
				Messenger, Whatsapp también tienen esos datos - pero imagina que 
				este sacerdote en una cabina de confesiones, su modelo de 
				negocio completo, es vender el acceso a la cabina de confesiones 
				a otra persona.  
				  
				Para que alguien más pueda manipularte. Porque 
				es la única forma en que este sacerdote gana dinero en este 
				caso.
 
 
				NT: Hay grandes corporaciones que tendrán estos datos, usted 
				mencionó a Facebook, y habrá gobiernos.
 
				  
				¿De qué te preocupas 
				más?
 YNH: Es lo mismo. Quiero decir, una vez que llegas más allá de 
				cierto punto, no importa cómo lo llames.
 
				  
				Esta es la entidad que 
				realmente gobierna, quienquiera que tenga este tipo de datos. 
				Quiero decir, incluso si en un entorno en el que todavía se 
				tiene un gobierno formal, y estos datos están en manos de alguna 
				corporación, entonces la corporación, si quiere, puede decidir 
				quién gana las próximas elecciones.  
				  
				Así que no es realmente una 
				gran elección. Quiero decir que hay elección.  
				  
				Podemos diseñar un 
				sistema político y económico diferente para evitar esta inmensa 
				concentración de datos y poder en manos de los gobiernos o de 
				las empresas que lo utilizan sin tener que rendir cuentas y sin 
				ser transparentes sobre lo que están haciendo. Quiero decir que 
				el mensaje no está bien. Se acabó. Se acabó.  
				  
				La humanidad está 
				en el basurero de la historia.
 
 
				NT: Ese no es el mensaje.
 
 YNH: No, ese no es el mensaje.
 
 
 
				NT: Uf. Los ojos han dejado de dilatarse, sigamos con esto.
 
 YNH: La verdadera pregunta es que necesitamos que la gente 
				entienda que esto es real. Esto está sucediendo. Hay cosas que 
				podemos hacer. Y como, ya sabes, habrá las elecciones de mitad 
				de período en un par de meses.
 
				  
				Así que en cada debate, cada vez 
				que un candidato se reúna con los votantes potenciales, en 
				persona o por televisión, hágales esta pregunta:  
					
					¿Cuál es tu 
				plan? ¿Cuál es su opinión sobre este tema? ¿Qué va a hacer si le 
				elegimos? 
				Si dicen "No sé de qué estás hablando", es un gran 
				problema.
 TH: Creo que el problema es que la mayoría de ellos no tienen 
				idea de lo que estamos hablando. Y ese es uno de los temas, creo 
				que los políticos, como hemos visto, no están muy educados en 
				estos temas.
 
 
 
				NT: Lo están haciendo mejor. Lo están haciendo mucho mejor este 
				año que el año pasado.
 
				  
				Viendo las audiencias del Senado, las 
				últimas audiencias con Jack Dorsey y Sheryl Sandberg, en lugar 
				de ver las audiencias de Zuckerberg o las audiencias de Colin 
				Stretch, ha habido mejoras.
 TH: Es verdad. Pero hay mucho más.
 
				  
				Creo que estos temas abren 
				todo un abanico de posibilidades. Aún no sabemos qué tipo de 
				cosas vamos a poder predecir. Hemos mencionado algunos ejemplos 
				que conocemos.  
				  
				Pero si tienes una manera secreta de saber algo 
				sobre una persona apuntándole con una cámara y la IA, ¿por qué 
				publicarías eso? Así que hay muchas cosas que se pueden saber 
				sobre nosotros sobre las que manipularnos ahora mismo y de las 
				que ni siquiera sabemos nada.  
				  
				¿Y cómo empezamos a regular eso?       
			Usuario, Protéjase 
				
				NT: Así que hay tres elementos en esa relación.
 
				  
				Ahí está la 
				supercomputadora:  
					
				 
				Y ahí estás tú.  
					
				 
				Así que hablemos de las 
				tres áreas, tal vez empezando por la persona. ¿Qué debe hacer el 
				humano en el futuro para sobrevivir mejor en esta dinámica?   
				TH: Una cosa que yo diría sobre eso es que creo que 
				la 
				autoconciencia es importante.  
				  
				Es importante que la gente sepa de 
				lo que estamos hablando y se dé cuenta de que podemos ser 
				pirateados. Pero no es una solución. Tienes millones de años de 
				evolución que guían tu mente para hacer ciertos juicios y 
				conclusiones.  
				  
				Un buen ejemplo de esto es si me pongo un casco de 
				Realidad Virtual, y ahora de repente estoy en un espacio donde 
				hay una cornisa, estoy al borde de un acantilado, 
				conscientemente sé que estoy sentado aquí en una habitación con Yuval y Nick, lo sé conscientemente.  
				  
				Así que he dejado la 
				autoconciencia, sé que estoy siendo manipulado.  
				  
				Pero si me 
				empujas, no voy a querer caer, ¿verdad? Porque tengo millones de 
				años de evolución que me dicen que me estás empujando de una 
				cornisa.  
				  
				Así que de la misma manera que puedes decir 
				- Dan Ariely 
				hace esta broma en realidad, un economista conductista - que la 
				adulación funciona con nosotros aunque yo le diga que lo estoy 
				inventando.  
				  
				Es como, Nick, me encanta tu chaqueta ahora mismo. 
				Siento que es una gran chaqueta para ti. Es una chaqueta 
				realmente increíble.
 
 
				NT: En realidad lo escogí porque sabía que al estudiar la 
				exhalación de dióxido de carbono de ayer....
 
 TH: Exactamente, ahora nos estamos manipulando entre 
				nosotros...
 
 El punto es que aunque sepas que me lo estoy inventando, todavía 
				me siento bien. La adulación se siente bien.
 
				  
				Por lo tanto, es 
				importante que pensemos en esto como una nueva era, una especie 
				de nueva iluminación en la que tenemos que vernos a nosotros 
				mismos de una manera muy diferente y eso no significa que esa 
				sea la respuesta completa.  
				  
				Es sólo el primer paso que tenemos 
				que dar.
 
 
				NT: Así que el primer paso es reconocer que todos somos 
				vulnerables, hackeables.
 
 TH: Sí, vulnerables.
 
 
 
				NT: Pero hay diferencias. Yuval es menos hackeable que yo porque 
				medita dos horas al día y no usa un teléfono inteligente. Soy 
				súper hackeable.
 
				  
				Entonces, ¿cuáles son las otras cosas que un 
				humano puede hacer para ser menos hackeable?
 YNH: Tienes que conocerte a ti mismo lo mejor que puedas.
 
				  
				No es 
				una solución perfecta, pero alguien corre detrás de ti, corre 
				tan rápido como puedas. Quiero decir, es una competición. 
				Entonces, ¿quién te conoce mejor en el mundo? cuando tienes dos 
				años es tu madre.  
				  
				Eventualmente esperas alcanzar una etapa en la 
				vida en la que te conozcas a ti mismo incluso mejor que tu 
				madre. Y entonces, de repente, tienes a esta corporación o 
				gobierno corriendo detrás de ti, y están muy lejos de tu madre, 
				y están a tu espalda.  
				  
				Están a punto de llegar a ti, este es el 
				momento crítico. Te conocen mejor de lo que te conoces a ti 
				mismo. Así que huye, corre un poco más rápido.
 Hay muchas maneras en las que puedes correr más rápido, lo que 
				significa conocerte un poco mejor a ti mismo.
 
				  
				La meditación es 
				un camino, pero hay cientos de técnicas de meditación, 
				diferentes maneras de trabajar con diferentes personas. Puedes 
				ir a terapia, puedes usar el arte, puedes usar los deportes, lo 
				que sea. Lo que sea que funcione para ti.  
				  
				Pero ahora se está 
				volviendo mucho más importante que nunca. ¿Sabes cuál es el 
				consejo más antiguo?: Conócete a ti mismo. En el pasado no había 
				competencia.  
				  
				Si vivías en la antigua Atenas y Sócrates llegase y 
				dijese:  
					
					"Conócete a ti mismo. Es buen para ti". 
					 
				Y tú dijeses: 
				 
					
					"No, estoy muy ocupado. Tengo un olivar con el que tengo que 
				lidiar, no tengo tiempo".  
				Así que no llegaste a conocerte mejor, 
				pero no había nadie más que compitiera contigo. Ahora tienes una 
				competencia seria. Así que necesitas conocerte mejor.  
				  
				En segundo 
				lugar, como individuo, si hablamos de lo que le está pasando a 
				la sociedad, deberías darte cuenta de que no puedes hacer mucho 
				por ti mismo.  
				  
				Únete a una organización. Si realmente te 
				preocupara esto, esta semana únete a alguna organización. 
				Cincuenta personas que trabajan juntas son una fuerza mucho más 
				poderosa que 50 individuos, cada uno de los cuales es un 
				activista. Es bueno ser un activista.  
				  
				Es mucho mejor ser miembro 
				de una organización. Y luego hay otros métodos probados y 
				comprobados en la política. Tenemos que volver a este lío de 
				hacer regulaciones políticas y tomar decisiones sobre todo esto. 
				Quizá sea la más importante.  
				  
				La política se trata de
				poder. Y 
				aquí es donde está el poder ahora mismo.
 TH: Creo que existe la tentación de decir OK, ¿cómo podemos 
				protegernos?
 
				  
				Y cuando esta conversación se traslada al uso de mi smartphone, te aconsejas:  
					
					"Oh, voy a configurar mi teléfono en 
				escala de grises. Oh, apagaré las notificaciones".  
				Pero lo que 
				falta es que vives dentro de un tejido social.  
				  
				Caminamos afuera. 
				Mi vida depende de la calidad de los pensamientos, creencias y 
				vidas de otras personas. 
 Si dices hola, soy un niño, soy un adolescente y no quiero que 
				me importe el número de me gustas que tengo, así que voy a dejar 
				de usar Snapchat o Instagram. No quiero que me quiten mi 
				autoestima en relación a los likes.
 
				  
				Puedo decir que no quiero 
				usar esas cosas pero todavía vivo en un tejido social donde 
				todas mis otras oportunidades sexuales, oportunidades sociales, 
				donde la gente habla de esas cosas, si sólo usan Instagram, 
				tengo que participar en ese tejido social.  
				  
				Así que creo que 
				tenemos que elevar la conversación, ¿Cómo me aseguro de que no 
				estoy siendo pirateado?  
				 
				  
				No es sólo una conversación individual. Queremos que la sociedad no sea hackeada, lo que va hasta el 
				punto político y de qué manera nos movilizamos políticamente 
				como grupo para cambiar toda la industria tecnológica.
 
 
				NT: Así que ese es el primer paso en esta pregunta de tres 
				pasos.
 
				  
				¿Qué pueden hacer los individuos? Conócete a ti mismo, 
				haz que la sociedad sea más resistente, haz que la sociedad sea 
				menos hackeable.  
				  
				¿Qué hay de la transmisión entre la 
				supercomputadora y el humano? ¿Cuáles son las reglas y cómo 
				debemos pensar en cómo limitar la capacidad de la 
				supercomputadora para hackearte?
 YNH: Esa es una gran pregunta.
 
 TH: En efecto, la gran pregunta actual.
 
 
 
				NT: ¡Por eso estamos aquí!
 
 YNH: En esencia, creo que debemos aceptar el hecho de que no 
				podemos evitarlo por completo. Y no es por la IA, es por la 
				biología.
 
				  
				Es sólo el tipo de animales que somos, y el tipo de 
				conocimiento que ahora tenemos sobre el cuerpo humano, sobre el 
				cerebro humano. Hemos llegado a un punto en el que esto es 
				realmente inevitable.  
				  
				Y ni siquiera necesitas un sensor 
				biométrico, puedes usar una cámara para saber cuál es mi presión 
				arterial. Lo que está pasando ahora, y a través de eso, lo que 
				me está pasando emocionalmente.  
				  
				Así que yo diría que necesitamos 
				reconceptualizar completamente nuestro mundo. Y por eso empecé 
				diciendo que sufrimos de empobrecimiento filosófico, que 
				seguimos bajo las ideas del siglo XVIII, que fueron buenas 
				durante dos o tres siglos, pero que simplemente no son adecuadas 
				para entender lo que está sucediendo en este momento.  
				  
				Y es por 
				eso que también pienso que la filosofía es una de las mejores 
				apuestas.
 
 
				NT: A veces bromeo con que mi esposa estudió filosofía y danza 
				en la universidad, que en ese entonces parecían las dos peores 
				profesiones porque no se puede conseguir un trabajo en ninguna 
				de ellas.
 
				  
				Pero ahora son como las dos últimas cosas que serán 
				reemplazadas por robots.
 TH: Creo que Yuval tiene razón.
 
				  
				Creo que, a menudo, esta 
				conversación hace que la gente llegue a la conclusión de que no 
				hay nada sobre la elección humana o los sentimientos de la mente 
				humana que valga la pena respetar. Y no creo que ese sea el 
				punto.  
				  
				Creo que el punto es que 
				necesitamos un nuevo tipo de 
				filosofía que reconozca un cierto tipo de pensamiento o proceso 
				cognitivo o proceso conceptual o proceso social que queremos.
 Por ejemplo [James] Fishkin es un profesor de Stanford que ha 
				trabajado en democracia deliberativa y ha demostrado que si se 
				obtiene una muestra aleatoria de gente en una habitación de 
				hotel durante dos días y se cuenta con expertos que vienen a 
				informarles sobre un montón de cosas, cambian de opinión sobre 
				los temas, pasan de estar polarizados a estar menos polarizados, 
				pueden llegar a un mayor acuerdo.
 
				  
				Así que creo que todavía 
				estamos atrapados en un traje de carne de mente-cuerpo, no 
				estamos saliendo de él, así que mejor aprendemos cómo lo usamos 
				de una manera que saca a relucir a los ángeles superiores de 
				nuestra naturaleza, las partes más reflexivas de nosotros 
				mismos.
 Creo que lo que los diseñadores de tecnología necesitan es 
				hacerse esa pregunta. Vamos a tomar YouTube de nuevo.
 
				  
				¿Cuál es 
				la diferencia con un adolescente? Vayamos al video del ukelele. 
				Es algo muy común en YouTube. Hay muchos videos de ukeleles, 
				cómo tocar el ukelele. ¿Qué pasa en ese momento en el que se 
				recomiendan otros vídeos de ukelele?  
				  
				Bueno, en realidad hay un 
				requerimiento de alguien que quiere aprender a tocar el ukelele, 
				pero la computadora no lo sabe, sólo está recomendando más 
				videos de ukelele.  
				  
				Pero si realmente supiera eso de ti en lugar 
				de sólo decir, aquí hay infinitos videos de ukelele para ver, 
				podría decir aquí están tus 10 amigos que saben cómo tocar el 
				ukelele que tú no sabes tocar y puedes ir a pasar el rato con 
				ellos.  
				  
				Básicamente podría poner esas opciones al principio del 
				menú de recomendaciones.
 YNH: El sistema en sí mismo puede hacer cosas asombrosas por 
				nosotros.
 
				  
				Sólo tenemos que darle la vuelta, que sirva a nuestros 
				intereses, sea lo que sea y no a los intereses de las 
				corporaciones o del gobierno.  
				  
				Ahora que nos damos cuenta de que 
				
				nuestros cerebros pueden ser pirateados, necesitamos un 
				antivirus para el cerebro, al igual que tenemos uno para el 
				ordenador. Y puede funcionar sobre la base de la misma 
				tecnología.  
				  
				Digamos que tienes una IA que te monitorea todo el 
				tiempo, las 24 horas del día. ¿Qué es lo que escribes? ¿Qué es 
				lo que ves? Todo.  
				  
				Pero esta IA te está sirviendo como una 
				responsabilidad fiduciaria. Y llega a conocer tus debilidades, y 
				al conocer sus debilidades puede protegerte contra otros agentes 
				que intentan hackearte y explotar tus debilidades.  
				  
				Así que si 
				tienes debilidad por los vídeos de gatos divertidos y pasas una 
				enorme cantidad de tiempo, una cantidad desmesurada de tiempo, 
				sólo mirando, sabes que no es muy bueno para ti, pero no puedes 
				dejar de hacer clic, entonces la IA intervendrá, y siempre que 
				estos divertidos vídeos de gatos intenten aparecer, la IA dirá 
				no, no, no, no, no, no.  
				  
				Y te mostrará tal vez un mensaje de que 
				alguien acaba de tratar de hackearte tal y como recibes mensajes 
				acerca de alguien que acaba de tratar de infectar tu ordenador 
				con un virus.  
				  
				Quiero decir, lo más difícil para nosotros es 
				admitir nuestras propias debilidades y prejuicios. Si tienes un 
				prejuicio contra Trump o contra los partidarios de Trump, muy 
				fácilmente creerías cualquier historia, por muy descabellada y 
				ridícula que sea. Historias como que Trump cree que el mundo es 
				plano. Trump está a favor de matar a todos los musulmanes.  
				  
				Usted 
				haría clic en eso. Este sería tu sesgo. Y la IA lo sabrá, y es 
				completamente neutral, no sirve a ninguna entidad ahí fuera. 
				 
				  
				Sólo llega a conocer tus debilidades y prejuicios y trata de 
				protegerte contra ellos.
 
 
				NT: ¿Pero cómo aprende que es una debilidad y un sesgo? ¿Y no 
				algo que te guste de verdad?
 
 TH: Aquí es donde creo que necesitamos un marco filosófico más 
				rico. Porque si lo tienes, entonces puedes hacer que eso sea 
				comprensible.
 
				  
				Así que si un adolescente está sentado allí y en 
				ese momento está viendo el video de la dieta y luego se les 
				muestra el video de la anorexia. Imagínate en el lugar de un 
				ingeniero de 22 años que fue a Stanford, un informático, 
				pensando: 
					
					¿Qué puedo mostrarles que es lo perfecto? 
				Tú tuviste 
				un psicólogo del desarrollo infantil de 80 años de edad que 
				estudió con los mejores psicólogos del desarrollo infantil y 
				pensó en ese tipo de momentos que normalmente suceden en un 
				adolescente a los 13 años de edad, un sentimiento de 
				inseguridad, desarrollo de la identidad, como la 
				experimentación.  
				  
				¿Qué sería lo mejor para ellos?:  
					
					tenemos que 
				comprender primero nuestras vulnerabilidades.  
				No es como si esto 
				fuese un futuro de ciencia ficción. Este es el estado actual. 
				 
				  
				Así que en realidad estamos pensando en cómo navegar a un estado 
				real de cosas que queremos, probablemente no queremos que un 
				asistente de IA sea un tipo de herramienta opcional que solo 
				algunas personas ricas pueden permitirse, probablemente queremos 
				que sea horneado en la forma en que la tecnología funciona en 
				primer lugar, de modo que tenga una responsabilidad fiduciaria 
				para con nuestros mejores, sutiles, compasivos y vulnerables 
				intereses.
 
 
				NT: Entonces, ¿tendremos asistentes de IA patrocinados por el 
				gobierno? Tendremos corporaciones que nos vendan asistentes de 
				IA pero que los subvencionen, así que no son sólo los ricos los 
				que tienen compañeros de IA realmente buenos?
 
 TH: Aquí es donde entra en juego la conversación sobre el modelo 
				de negocio.
 
 YNH: Una cosa es cambiar la forma de hacerlo: si vas a la 
				universidad y aprendes ciencias de la computación, una parte 
				integral del curso es aprender sobre ética, sobre la ética de la 
				codificación.
 
				  
				Creo que es extremadamente irresponsable que se 
				puede tener un título en informática y en codificación, que se 
				pueden diseñar todos estos algoritmos que ahora dan forma a la 
				vida de las personas, y que no se tenga ningún conocimiento para 
				pensar ética y filosóficamente sobre lo que se está haciendo. 
				 
				  
				Estaba pensando en términos de tecnicismos puros o en términos 
				económicos.
 
 
				NT: Ahora déjame preguntarte algo que ha surgido un par de veces 
				que me he estado preguntando.
 
				  
				Cuando estabas dando el ejemplo 
				del ukelele, tal vez deberías ir a ver a tus amigos que tocan al 
				ukelele, deberías ir a visitarlos. En tu libro dices que uno de 
				los momentos cruciales para 
				
				Facebook llegará cuando un ingeniero 
				se dé cuenta de que lo mejor para la persona y para la comunidad 
				es que deje su ordenador.  
				  
				¿Y qué hará Facebook con eso?  
				  
				Parece, 
				desde una perspectiva moral, que una plataforma, si se da cuenta 
				de que sería mejor que te desconectaras y vieras a alguien, 
				debería animarte a que lo hicieras. Pero entonces, perderán su 
				dinero y serán superados.  
				  
				Entonces, ¿cómo llegas al punto en el 
				que el algoritmo, la plataforma, empuja a alguien en esa 
				dirección?
 TH: Aquí es donde esta conversación sobre el modelo de negocio 
				es tan importante y también por qué el papel de Apple y Google 
				es tan importante porque están antes que el modelo de negocio de 
				todas estas aplicaciones que quieren robar tu tiempo y maximizar 
				la atención.
 
 Android e iOS, para no hacer esta conversación demasiado técnica 
				o centrada en la industria, ¿a quién debería estar sirviendo? 
				¿Quieren que las aplicaciones sean lo más exitosas posible? 
				¿Hacer que pases más tiempo con ellas, maximizando la soledad, 
				la alienación?
 
				  
				O deberían ser un asistente de IA de nuestros 
				intereses más profundos, de nuestras vidas físicas, de nuestras 
				comunidades físicas.  
				  
				Resulta que estar dentro de la comunidad y 
				tener contacto cara a cara puede ser mejor idea. El 
				confinamiento solitario es el peor castigo que le damos a los 
				seres humanos.  
				  
				Tenemos tecnología que básicamente está 
				maximizando el aislamiento porque necesita maximizar el tiempo 
				que permanecemos en la pantalla.  
				  
				Por lo tanto, creo que una 
				pregunta es, 
					
					¿cómo pueden Apple y Google mover a toda su empresa 
				para que sea una responsabilidad con la sociedad? 
				Facebook 
				también podría cambiar su modelo de negocio hacia el blockchain 
				en el que teóricamente están trabajando y también los pagos de 
				mensajería.  
				  
				Si pasan de un modelo de negocio basado en la 
				publicidad a los micropagos, en realidad podrían cambiar el 
				diseño de algunas de esas cosas.  
				  
				Podría haber también equipos 
				enteros de ingenieros en los News Feed que sólo piensen en lo 
				que es mejor para la sociedad, aunque la gente podría 
				preguntarse, ¿quién es Facebook para decir lo que es bueno para 
				la sociedad?.
 
 
				NT: Esto me lleva a una de las cuestiones sobre las que más me 
				gustaría escuchar vuestros pensamientos, tanto Apple como Google 
				han hecho esto hasta cierto punto en el último año. Y Facebook 
				lo ha hecho.
 
				  
				Creo que cada ejecutivo de cada compañía de 
				tecnología ha dicho "tiempo bien empleado" en algún momento del 
				año pasado.  
				  
				¿Realmente creéis que estamos yendo en la dirección 
				correcta en este momento porque el cambio está ocurriendo y la 
				gente se lo está planteando? ¿O creéis que seguimos yendo en la 
				dirección equivocada?
 YNH: Creo que en el mundo de la tecnología estamos yendo en la 
				dirección correcta en el sentido de que la gente se está dando 
				cuenta de lo que está en juego.
 
				  
				La gente se está dando cuenta 
				del inmenso poder que tiene en sus manos - estoy hablando de la 
				gente en el mundo de la tecnología - y se está dando cuenta de la 
				influencia que tienen en la política, en la sociedad, y sobre la 
				sociedad.  
				  
				La mayoría de ellos reaccionan, no de la mejor manera 
				posible, pero sin duda de manera responsable.
 Esto está ocurriendo y tenemos que pensar muy bien qué hacer con 
				ello. Se ha dado el primer paso, el de darse cuenta de lo que 
				está sucediendo y asumir alguna responsabilidad.
 
				  
				El lugar donde 
				vemos un desarrollo muy negativo es a nivel global porque todo 
				lo que se ha dicho hasta ahora ha sido una especie de charla 
				interna de Silicon Valley, California, Estados Unidos.  
				  
				Quiero 
				decir que toda el debate que hemos tenido hasta ahora se ha 
				basado en lo que está sucediendo en las democracias liberales y 
				en los mercados libres.  
				  
				En algunos países, tal vez no tengas 
				otra opción.
				Sólo tienes que compartir toda tu información y hacer lo que el 
				algoritmo patrocinado por el gobierno te dice que hagas.  
				  
				Otra 
				complicación es la carrera armamentista de la IA que hace cinco 
				años, o incluso hace dos años, no existía, ahora es quizás la 
				prioridad número uno en muchos lugares del mundo, hay una 
				carrera armamentista sobre la IA, y cada país, necesita ganar 
				esta carrera. 
				  
				Cuando entras en una situación de carrera 
				armamentista, entonces se convierte rápidamente en una carrera 
				hacia abajo, porque aunque sea una mala idea hacer esto lo están 
				haciendo y eso les da alguna ventaja a los países embarcados en 
				esta carrera y no quieren quedarse atrás.  
				  
				Nosotros somos los 
				buenos. No queremos hacerlo, pero no podemos permitir que los 
				malos estén delante de nosotros, así que debemos hacerlo 
				primero.  
				  
				Y si le preguntas a la otra gente, ellos dirán lo 
				mismo. Y esto es un acontecimiento extremadamente peligroso.
 TH: Es un dilema del prisionero. Es una trampa multipolar. 
				Quiero decir, de todos los actores, nadie quiere ser el malo.
 
 
 
				NT: E incluso a un nivel más profundo si quieres dotar de ética 
				a la IA, esto ralentizaría tu carrera.
 
 TH: Correcto. Uno de los retos - una de las cosas de las que creo 
				que hablamos cuando nos conocimos por primera vez - fue la ética 
				de la velocidad, de la velocidad del reloj.
 
				  
				Esencialmente 
				estamos compitiendo sobre quién puede ir más rápido para hacer 
				estas cosas, pero más rápido significa que es más probable que 
				sea peligroso, menos probable que sea seguro.  
				  
				Así que 
				básicamente estamos corriendo lo más rápido posible para crear 
				esta IA, pero probablemente deberíamos ir lo más despacio 
				posible para crearla.  
				  
				La carrera es sobre quién puede programar 
				a los seres humanos más rápido y quién es más eficaz en la 
				manipulación de las guerras culturales en todo el mundo.  
				  
				Creo 
				que tenemos que reflexionar cómo podemos ralentizar esto y crear 
				un ritmo sensato. Probablemente no queramos que la sociedad se 
				apresure a tomar 100 decisiones por hora sobre algo que 
				realmente importa.  
				  
				Entonces, ¿cuál es la velocidad correcta? 
				Creo que tenemos que tener tecnología que nos guíe hacia ese 
				tipo de procesos de toma de decisiones.       
			¿Está mejorando o empeorando el problema?   
				
				NT: Volviendo a la pregunta original.  
				  
				Sois optimistas sobre 
				algunas de las cosas que están sucediendo en este pequeño lugar? 
				o ¿pesimistas sobre la completa destrucción de la humanidad?
 TH: Creo que el punto de Yuval es correcto, las compañías de 
				tecnología de EE.UU. son más grandes que muchos gobiernos: 
				Facebook controla los pensamientos de 2.200 millones de 
				personas. Mark Zuckerberg es editor jefe de 2.200 millones de 
				pensamientos de la gente.
 
				  
				Pero también hay gobiernos mundiales o 
				gobiernos nacionales que se rigen por un conjunto diferente de 
				reglas. Creo que las compañías de tecnología están despertando 
				muy, muy lentamente a esto.  
				  
				Hasta ahora, por ejemplo, con el 
				lema del Tiempo Bien Gastado, vamos a ayudar a la gente, porque 
				son vulnerables acerca de cuánto tiempo pasan, estableceremos un 
				límite en cuanto a cuánto tiempo pasan.  
				  
				Pero eso no aborda 
				ninguno de estos temas más importantes sobre cómo se pueden 
				programar los pensamientos de una democracia o cómo la salud 
				mental y la alienación entre los adolescentes es cada vez peor, se duplicaron las tasas de suicidio entre las adolescentes 
				en los últimos ocho años.
 Vamos a tener que tener una visión mucho más completa y una 
				reestructuración de la industria tecnológica para pensar en lo 
				que es bueno para la gente. Y va a haber una transición 
				incómoda, he usado esta metáfora, es como con el cambio 
				climático.
 
				  
				Hay ciertos momentos en la historia en los que una 
				economía está sostenida por algo que no queremos.  
				  
				Así que el 
				mayor ejemplo de esto es la esclavitud en el siglo XIX. Hubo un 
				momento en que la esclavitud estaba apuntalando toda la economía 
				mundial. No se puede decir que no queremos hacer esto más, 
				simplemente saquémoslo de la economía. Toda la economía se 
				derrumbará si haces eso.  
				  
				Pero el Imperio Británico, cuando 
				decidió abolir la esclavitud, tuvo que renunciar al 2 por ciento 
				de su PIB cada año durante 60 años y fue capaz de hacer esa 
				transición durante un período de transición. 
				  
				No estoy 
				equiparando la publicidad o la programación de los seres humanos 
				a la esclavitud pero hay una estructura similar de toda la 
				economía ahora; si se mira el mercado de valores, como una gran 
				parte del valor, es impulsada por estos sistemas de programación 
				publicitaria basados en los seres humanos y los animales.  
				  
				Si 
				queremos seguir con ese modelo, el modelo publicitario, en 
				realidad no podemos permitirnos esa transición.
 
 
				NT: Yuval, ¿estás de acuerdo en que esa es una de las cosas en 
				las que tenemos que pensar al tratar de arreglar el sistema 
				mundial en las próximas décadas?
 
 YNH: Es una de las cosas. Pero una vez más, el problema del 
				mundo, de la humanidad, no es sólo el modelo publicitario.
 
				  
				Quiero decir que las herramientas básicas fueron diseñadas, hace 
				10 o 20 años; tenías a las personas más brillantes del mundo, 
				resolviendo este problema de, ¿cómo hago que la gente haga clic 
				en los anuncios?  
				  
				Para algunas de las personas más inteligentes 
				de la historia, ese era su trabajo, resolver este problema. Y lo 
				resolvieron.  
				  
				Y luego los métodos que usaron inicialmente para 
				vendernos ropa interior, gafas de sol y vacaciones en el Caribe 
				y cosas por el estilo, fueron secuestrados y convertidos en 
				armas, y ahora se usan para vendernos todo tipo de cosas, 
				incluyendo opiniones políticas e ideologías enteras.  
				  
				Y ya no 
				está bajo el control del gigante tecnológico de Silicon Valley, 
				que fue el pionero de estos métodos. Estos métodos están ahí 
				fuera. Así que incluso si consigues que Google y Facebook se 
				rindan por completo, el gato está fuera de la bolsa.  
				  
				La gente ya 
				sabe cómo hacerlo. Y hay una carrera armamentista. Así que sí, 
				tenemos que resolver este asunto de la publicidad. Es muy 
				importante.  
				  
				Pero no resolverá el problema humano. Y creo que 
				ahora la única manera realmente efectiva de hacerlo es a nivel 
				mundial.  
				  
				Y para ello necesitamos una cooperación global en la 
				regulación de la IA, en la regulación del desarrollo de la IA y 
				de la biotecnología, y, por supuesto, vamos en la dirección 
				opuesta de la cooperación global.
 TH: Estoy de acuerdo en que existe esta noción de teoría de 
				juegos.
 
				  
				Claro que 
				
				Facebook y 
				
				Google podrían hacerlo, pero eso no 
				importa porque el asunto está fuera de control, y los gobiernos 
				lo van a hacer, y otras compañías tecnológicas lo van a hacer, y 
				la infraestructura tecnológica de Rusia lo va a hacer.  
				  
				Entonces, 
				¿cómo evitas que suceda?
 No quiero equiparar la esclavitud otra vez con este tema, pero 
				cuando el Imperio Británico decidió abolir la esclavitud y 
				restar su dependencia hacia ella en relación a su economía, en 
				realidad estaban preocupados de que si lo hacíamos, la economía 
				de Francia seguiría siendo impulsada por la esclavitud y se 
				dispararían mucho más allá de nosotros.
 
				  
				Así que desde la 
				perspectiva de la competencia no podemos hacer esto, pero la 
				forma en que llegaron allí fue convirtiéndolo en una cuestión de 
				derechos humanos universales y globales.   
				  
				Eso llevó más tiempo, 
				pero creo que esto es como dice Yuval, estoy de acuerdo en que 
				se trata de una conversación global sobre la naturaleza humana y 
				la libertad humana.  
				  
				No sé si existe tal cosa, pero al menos me 
				refiero al tipo de libertad humana que queremos preservar y que 
				creo que es algo que realmente interesa a todos, vamos a avanzar 
				en esa dirección manteniendo un debate global al respecto.
 
 
				NT: Terminemos con un consejo para alguien que esté viendo este 
				vídeo.
 
				  
				Acaban de ver un video de Alex Jones y el algoritmo de YouTube ha cambiado y lo han enviado aquí, y de alguna manera 
				han llegado a este punto.  
				  
				Tienen 18 años, quieren dedicar su 
				vida a que la dinámica entre las máquinas y los seres humanos no 
				se vuelva explotadora y se convierta en una en la que podamos 
				seguir viviendo nuestras vidas plenas.  
				  
				¿Qué deberían hacer o qué 
				consejo les daría a estos jóvenes?
 YNH: Yo diría, conócete a ti mismo mucho mejor y hazte la menor 
				cantidad posible de ilusiones sobre ti mismo. Si un deseo 
				aparece en tu mente, no digas bien, este es mi libre albedrío. Elegí esto, por lo tanto es bueno, debo hacerlo.
 
				  
				Explora mucho 
				más profundamente. En segundo lugar, como dije, únete a una 
				organización. Hay muy poco que puedes hacer como individuo por 
				ti mismo.  
				  
				Estos son los dos consejos más importantes que podría 
				dar a una persona que nos está observando ahora.
 TH: Tenemos que pasar de un modelo del siglo XVIII de cómo 
				trabajan los seres humanos a un modelo del siglo XXI de cómo 
				trabajan los seres humanos.
 
				  
				Nuestro trabajo es tratar de 
				coordinar una especie de movimiento global hacia la solución de 
				algunos de estos problemas en torno a la tecnología humana.  
				  
				Creo 
				como Yuval dice que no puedes hacerlo solo. No es tan fácil como 
				cambiar la escala de grises de mi teléfono o hacer una petición 
				a mi congresista. Este es un movimiento global.  
				  
				La buena noticia 
				es que nadie quiere llegar al futuro distópico que se plantea en 
				lo que estamos hablando. No es como si alguien dijera estoy muy 
				emocionado con esta distopía, sólo quiero seguir haciendo lo que 
				estamos haciendo.  
				  
				Nadie quiere eso.  
				  
				Tenemos que alejarnos de la 
				dirección a la que vamos. Creo que todo el mundo debería estar 
				de acuerdo en eso.
 
 
				NT: Gracias por la charla y gracias por estar aquí. 
				Gracias, Tristan. Gracias, Yuval.
 
			  
			  |