¿Por qué ChatGPT no
te conoce?
Porque no soy Elon Musk...
ChatGPT es el
resultado de un código que procesó y acumuló el conocimiento de
Internet en su red neuronal hasta esa fecha que te ha
mencionado.
Son números, parámetros. 175.000 millones en
GPT-3 y en
GPT-4 [el modelo disponible más avanzado] no sabemos, pero
más.
Lo que hace es encontrar una respuesta a tu
pregunta palabra a palabra según lo que sea estadísticamente más
probable.
Así escribe cada frase, cada párrafo.
"Igual estás entrevistando a quien no deberías,
no
soy suficientemente famoso para ChatGPT"
Por ejemplo, si sale Barack, sabe que
luego viene Obama porque lo ha leído millones de veces.
Pero seguramente Jordi Torres lo ha leído
poquísimas veces, no le da la posibilidad de hacer algo
razonablemente confiable.
Si tras Jordi Torres la siguiente palabra
aparece con una probabilidad muy baja, la descarta para no
entrar en 'alucinaciones'.
Aunque a veces se despista, él siempre
responde.
A ti, te ha dado una respuesta de escape
tuneada porque en el entrenamiento de ChatGPT ha habido
intervención humana, lo que se llama human-in-the-loop
[supervisores humanos].
Así que igual estás entrevistando a quien no
deberías, no soy suficientemente famoso para ChatGPT [ríe].
¿Falla entonces en el
hilado fino?
ChatGPT contiene una versión comprimida de
todo el conocimiento de Internet que se usó para entrenarlo,
pero al comprimirlo, se pierde información, como al comprimir un
fichero informático.
Al descomprimirlo, debe aplicar un proceso
matemático para encontrar los píxeles que faltan.
De media, los genera bien, pero a veces se
distorsiona una imagen después de comprimirse. Él domina la
verborrea, redacta bien, pero le falta información precisa.
Lo que se está haciendo es añadir al motor de
verborrea que es ChatGPT una base de datos específica con
conocimiento del ámbito al cual quieres aplicarlo.
Por ejemplo, al de la salud, para
sobre-entrenarlo y que sea más preciso.
El problema es que se ha
entrenado quién sabe con qué.
De hecho, OpenAI de open no tiene
nada. Es de los primeros avances en redes neuronales que se hace
sin compartir con la comunidad científica los datos, los
algoritmos y las máquinas que se han usado para el
entrenamiento.
Es todo muy opaco.
"Los
conceptos de IA y redes neuronales
vienen de
mediados del siglo pasado.
Las buenas
ideas matemáticas ya estaban en los 80,
pero no
había máquinas para computar la información
en un tiempo
razonable"
¿Qué diferencia las
neuronas biológicas de las artificiales?
No se parecen en nada, pero cómo se expresan
las cosas puede ayudar a definir ideas.
Los conceptos de IA y redes neuronales vienen
de mediados del siglo pasado. Las buenas ideas matemáticas ya
estaban en los 80, pero no había máquinas para computar la
información en un tiempo razonable.
En 2012, en una competición de clasificación
de imágenes, explotó esta idea de que las redes neuronales
podían ser útiles.
Una red neuronal no es más que millones de
neuronas artificiales.
Y una neurona artificial es una suma
ponderada de los parámetros de entrada, de las conexiones con
otras neuronas, más una aplicación que procesa el resultado.
Al igual que con las neuronas humanas - que,
según lo que les llega y su procesamiento, emiten a través del
axón una señal de activado o no activado - las artificiales,
tras esa suma ponderada, emiten una salida de valor 0 ó 1.
Es así de simple, una operación matemática
muy pequeña, una multiplicación de matrices.
Pero con millones de estas cosas tan simples
se hacen cosas muy complejas, como entrenar estas neuronas para
obtener información de los datos de entrada de forma automática,
sin precisar de un programador que indique qué hacer si pasa
esto o lo otro.
¿Ha ocurrido algo
sorprendente en el desarrollo de la IA desde que publicaste tu
libro en septiembre pasado?
Desde el punto de vista de la investigación,
no.
Lo cerramos a finales de mayo (de 2023), cuando ya
había pasado lo más importante, es especial en relación con el
lanzamiento de ChatGPT, aunque voy actualizando anécdotas en
mi Web.
Sí me sorprende la rapidez con la que se está
adoptando la tecnología en muchos campos. Aún queda mucho
recorrido, pero va a cambiar las profesiones, la calidad de vida
de las personas, lo va a cambiar todo.
Se está avanzando mucho en facilitar esa
adopción.
Microsoft está aplicando IA en sus productos.
Word ya corrige nuestros errores ortográficos, pero pronto podrá
resumir un texto, etc.
También se están perfeccionando los modelos
de lenguaje.
En España existe el
proyecto MarIA [para resumir y generar textos en castellano
a partir de los archivos Web de la Biblioteca Nacional de
España] y en Cataluña tenemos
Aina
[equivalente para el catalán].
Se trata de facilitar una infraestructura que
puedan utilizar las empresas, por ejemplo, en el ámbito de la
salud.
En el Hospital Clínic de Barcelona o en el
Vall d'Hebron, donde algunos médicos escriben en catalán, otros
en castellano y otros en inglés, estos modelos pueden ayudar a
hacer una interpretación automática de los informes.
¿Los gigantes
tecnológicos van marcando la pauta?
En modelos de lenguaje hay una competición
entre las grandes tecnológicas.
Microsoft ha invertido mucho dinero en OpenAI,
Google ha sacado Gemini, Meta (Facebook) tiene
Llama...
Y todo viene de un artículo de investigación de Google que se
llama
Transformer publicado en 2017, cuando hubo un cambio de
paradigma.
Desde entonces, no ha habido nada de esa
dimensión.
Sí se han puesto las pilas los gobiernos: se
le está dando un acelerón a la
legislación europea, Biden está poniendo sus salvaguardas en
EE.UU...
"OpenAI
no
abrió ChatGPT a todo el mundo por altruismo,
es
un experimento masivo
para
afinar sus modelos de lenguaje.
Una
vez más, pagamos dándoles nuestros datos,
nuestra forma de interactuar"
Es decir, no hay
grandes hitos científicos, pero se ha avanzado en
comercialización y regulación, ¿correcto?
Se está afinando la tecnología para hacerla
más útil.
Y, no nos engañemos, OpenAI no abrió
ChatGPT
a todo el mundo por altruismo, al igual que Google te da
'gratis' Gmail.
Es un experimento masivo para afinar sus
modelos de lenguaje.
Una vez más, pagamos lo que supuestamente nos
está ayudando, dándoles nuestros datos, nuestra forma de
interactuar. Ellos están adquiriendo toda esta información,
están afinando el producto.
También creo que muchas de estas cosas van a
ser cada vez más transversales y transparentes.
Concluyes que la IA
supondrá una mayor transformación de la historia de la humanidad
que la que supuso la Revolución Industrial.
Ahí hay un trabajo del editor para acentuar
aquello que yo pienso y digo.
Yo, como científico, no tengo costumbre de
hacer titulares. Pero lo puedo defender en el sentido de que
ahora tenemos una herramienta más potente que cualquiera de las
anteriores.
Por ejemplo, va a automatizar muchas tareas
diferentes a las manuales y algunas de ellas son las creativas,
las que hasta ahora creíamos que solo podían hacer los artistas.
De igual forma, va a afectar a muchos de
quienes estudiamos en la universidad pensando que nunca nos
quitarían el trabajo. A mis estudiantes de informática les va a
afectar de lleno porque las máquinas ya saben programar.
Yo ya pido a ChatGPT que me ayude con ciertas
rutinas de programación.
La automatización va a ocurrir cada vez
más en trabajos de carácter intelectual, no como hasta ahora,
que solo afectaba a quienes trabajaban en cadenas de producción.
Es una transformación brutal...
"La
automatización va a ocurrir cada vez más
en
trabajos de carácter intelectual,
no
como hasta ahora, que solo afectaba
a
quienes trabajaban en cadenas de producción.
Es
una transformación brutal"
¿Compite con nuestra
inteligencia?
La complementa...
En el libro, hablo de cohabitación. La IA
complementando a nuestra inteligencia nos puede llevar a hacer
cosas hasta ahora impensables.
También a abordar retos complejos como los
que plantea el cambio climático.
O nos ayudamos de herramientas como la IA
para predecir, tomar decisiones, ser más eficientes y
sostenibles o no sé cómo vamos a salir de esta.
Al final, para bien o para mal, los humanos
hemos adoptado toda tecnología que ha caído en nuestras manos,
no hay vuelta atrás.
Además, lo que puede hacer la IA, no lo
podemos hacer nosotros.
Mientras esté en nuestro control, no veo
problemas.
Jordi Torres
durante una
conferencia sobre inteligencia artificial.
Foto cedida por
el entrevistado
Según el
FMI, la IA
afectará al 60% de los trabajos en las economías avanzadas y
existe el riesgo de que reemplace empleos y profundice la
desigualdad.
Es cierto, lo va a cambiar todo.
Pero, mira, mi abuelo trabajaba 80 horas a la
semana y mi hijo trabaja 40, ¿esto es bueno o es malo? Está
viniendo muy rápido y nos coge sin capacidad de reacción.
Y el que pierde el trabajo hoy, mañana no se
puede incorporar a otro ámbito distinto.
¿Pero cuál es el problema de que haga parte
del trabajo?
El reto es cómo nos organizamos a nivel
social. Por otro lado, el negocio de la IA está en manos de
pocos y estos pocos se están haciendo cada vez más ricos.
Si juntas esto con la facilidad que la IA
provee a las personas para elaborar fake
news, nos puede llevar a una gran crisis social.
Nos tendríamos que poner las pilas.
"El
negocio de la IA está en manos de pocos
que
se están haciendo cada vez más ricos.
Si a
ello añadimos
la
facilidad con que esta tecnología
permite elaborar 'fake news',
puede conducirnos a una gran crisis social"
¿Existe hoy una
tecnología que hiciera innecesario un
actor para rodar una serie o una película o un médico para
atender pacientes?
Depende.
Si hoy en día no se pueden realizar películas
sin actores en las que todo parezca real, se hará pronto. Pero
quizás sean un bodrio. Ahora, una buena película, tengo mis
dudas.
Lo que también pasará es que se generará un
montón de contenido realista y un solo director o un solo
guionista podrá supervisar 10 películas, en vez de una.
En el caso de los médicos, estoy seguro de
que, sobre ciertos diagnósticos muy sistemáticos, ya hay una IA
que puede tomar la decisión.
En el BSC se está trabajando con
simulaciones de ordenador, gemelos digitales e IA para ver
cómo una proteína o un medicamento interacciona con las células
cancerígenas.
Al final, la IA junto con la humana permite a
un médico tomar mejores decisiones y aplicar mejores
tratamientos.
Pero esta tecnología sola no va a ninguna
parte.
Lo que se persigue es no sustituir al humano, sino
complementarlo.
Puede ayudar a que el tiempo del médico se
dedique a tareas de más valor añadido.
Se trataría, por así decirlo, de subcontratar
a una IA para hacer la parte del trabajo más mecánica.
La IA tiene un
importante impacto ambiental por su gran consumo energético y
emisión de CO2.
¿Qué implica en el
contexto de la actual emergencia climática?
Los supercomputadores con los que se entrena
la IA consumen mucha electricidad, pero este no es el problema.
Por contextualizarlo, si los casi 10 millones
de abonados de Netflix España ven una hora una película,
consumen lo mismo que entrenar el GPT-3 una vez.
Es decir,
lo que cuesta mucho tiempo y
energía es que aprenda, entrenarlo y eso, en la versión que has
consultado tú, ocurrió por última vez en enero de 2022.
El problema es el mundo digitalizado que
tenemos.
Piensa cuando entramos en el coche y conectamos el GPS
para consultar Google Maps, con información de 220 países y
pudiendo pedir lo que queramos de donde queramos.
Todo esto gasta mucha energía,
deberíamos consumir menos en general.
Relatas que la mayor
dificultad para el progreso de la IA son las limitaciones de la
computación y citas las posibilidades de los chips neuromórficos
y la eventual computación quántica.
¿En qué consisten?
Los chips neuromórficos integran el algoritmo
en su hardware, lo que les hace más eficientes.
Los supercomputadores quánticos aún no
existen.
Lo que vamos a montar antes del verano en el
BCS es una infraestructura que permita hacer experimentos
quánticos para avanzar en supercomputación, un entorno sin
influencias electromagnéticas, con un frío determinado...
Pero hasta que dispongamos de
supercomputación quántica aún queda un recorrido. Y tampoco es
evidente que, para las redes neurales, la computación quántica
sea una solución.
Como explico en mi libro, el desarrollo de la
IA se basa en tres pilares:
Datos, ya hemos usado todos los que había en
Internet; algoritmos, ya son miles de millones; y máquinas,
consumen mucho.
Seguir progresando es un reto.
"Europa tiene tres superordenadores,
uno
de ellos en Barcelona, del tamaño de los que tienen
cualquiera de estas empresas tecnológicas californianas
[Google, Microsoft, etc.].
Si
no tenemos más,
¿cómo vamos a tener IA propia? "
También crees que
Europa tendría que aumentar su capacidad en supercomputación.
Europa tiene tres supercomputadores del
tamaño de los que tienen cualquiera de estas empresas de
California, uno en Finlandia, otro en Italia y el de Barcelona.
Si no tenemos más, ¿cómo vamos a tener IA
propia?
Los modelos ChatGPT tienen su moral, su
ética, sus sesgos, que son los suyos porque al final están
entrenados con sus datos.
Mateo Valero Cortés [director del BCS]
lo explica muy bien:
en Europa somos árbitros de un partido
que no estamos jugando.
¿Y de qué se hacen estos supercomputadores?
Los circuitos del que tenemos en Barcelona
son Nvidia e Intel, que nuevamente son empresas californianas.
Hay una iniciativa europea para hacer chips
propios que permitan hacer supercomputadores propios y una IA
propia que podamos controlar.
A Europa le falta tiempo para estar al día de
este partido que se está jugando.
Dices que la IA no
distingue el bien del mal y urges a una regulación ética y
responsable, pero ese criterio varía entre las personas y las
culturas.
¿Cómo podemos
asegurar que se avanza según ciertos principios?
Primero, debemos tener opinión del tema para
decidir entre todos qué queremos.
La mayoría consideraría que aplicar la IA a
la interpretación de imágenes médicas es un buen avance, pero es
la misma tecnología que se usa para detección facial y que en
China se emplea para controlar a la población.
En Cataluña se ha debatido sobre poner este
tipo de cámaras en las prisiones, ¿es bueno o malo?
Yo, por ejemplo, soy muy antimilitarista y
cuando veo su aplicación al armamento autónomo, creo que es
malísimo.
"La
mayoría consideraría que aplicar la IA
a la
interpretación de imágenes médicas
es
un buen avance,
pero
es la misma tecnología que se usa
para
detección facial y que en China
se
emplea para controlar a la población"
Mencionas que la IA
puede facilitar muchos avances en el ámbito del derecho, ¿podría
en algún momento acabar regulándose a sí misma?
Me refería al ámbito de la redacción o la
búsqueda de información en procesos judiciales complejos, por
ejemplo.
Pero, con lo que me preguntas, estás dando
por sentado que la IA tiene conciencia de sí misma. Esta, que
nos pintan en la ciencia ficción, ni existe, ni hay indicios de
que pueda existir en un futuro cercano.
Con la tecnología actual es imposible que una
máquina sea consciente.
Parafraseando al especialista en IA Stuart
Russel, nos hacen falta unos cuántos Einstein con inventos
disruptivos para que la IA pueda ser consciente de sí misma,
tenga la capacidad de razonar, sentido común o sea capaz de
distinguir causa y efecto:
¿sale el sol porque canta el gallo o
canta el gallo porque sale el sol?
Ahora mismo, es imposible que la inteligencia
artificial se regule a sí misma porque, en el fondo, es tonta.
La que gana al ajedrez, si en vez de un
tablero de 8 por 8 le pones un tablero 8 por 9, ya no sabe
jugar. Cualquier jugador medio le ganaría.
No digo que no tengamos que ocuparnos de
estos temas, digo que debemos atender otros más inminentes
porque con la tecnología actual ya se pueden hacer barbaridades.
"Ahora mismo,
es
imposible que la inteligencia artificial
se
regule a sí misma porque,
en
el fondo, es tonta.
La
que gana al ajedrez,
si
en vez de un tablero de 8 por 8
le
pones un tablero 8 por 9, ya no sabe jugar"
La escritora
especializada en tecnología Marta Peirano cree que cuando los
gurús tecnológicos piden más regulación para conjurar el riesgo
de la singularidad tecnológica, lo que en realidad persiguen es
regulaciones a su medida que favorezcan su monopolio frente a
modelos abiertos y colaborativos.
¿Qué opinas?
Entramos en el campo de la especulación y
esto es aplicable a cualquier sector industrial.
Sí es cierto que si pones limitaciones a
conseguir según qué cosas que ellos ya tienen, los mantiene en
una situación de dominio.
Tras el lanzamiento de ChatGPT-4, Musk
firmó una
carta con un grupo de expertos en IA solicitando una
moratoria de medio año antes de desarrollar sistemas más
potentes.
Pero él estaba por otro lado pidiendo a la
gente de Nvidia miles de chips para desarrollar IA, de los que
en aquel momento aún no habían llegado al BSC.
¿A qué juega...?
Y si a Sam Altman [director ejecutivo
de OpenAI] le preocupa tanto, ¿por qué se ha metido a hacerlo?
¿Tú crees que habría
que ralentizar su desarrollo?
No creo que se tenga que ralentizar, pero no
se puede dar autonomía absoluta.
No podemos continuar con este despropósito de
"lo probamos y luego veremos qué pasa", como está ocurriendo. Lo
estamos viendo en otras áreas, como las redes sociales, en las
que se usa IA.
Son un fenómeno del mundo de la
digitalización que tiene vida propia y que está machacando a
todos nuestros jóvenes.
También debemos garantizar por ley que
cualquier actor del que se use su voz, gane su royalty porque
hoy te pueden plagiar la voz.
En definitiva, tenemos que estar de acuerdo
en qué cosas no se pueden hacer.
No se puede hacer armamento autónomo, por
ejemplo. Yo sería contundente, hay cosas que tendrían que estar
prohibidas. Y Europa va por aquí, como en el caso del
reconocimiento facial, que está muy limitado.
Tenemos que ponernos todos a pensar en cómo
controlamos esta herramienta porque es muy potente y lo va a
cambiar todo.
"No
creo que la IA se tenga que ralentizar,
pero
no se puede dar autonomía absoluta.
No
se puede continuar con este despropósito
de
"lo probamos y luego veremos qué pasa",
como
está ocurriendo "
Este año, la mitad de
la humanidad va a votar.
Teniendo en cuenta
que mediante IA se pueden hacer textos, fotos, audios o vídeos
falsos e indistinguibles de la realidad, ¿qué deberíamos hacer
los ciudadanos?
La tecnología para suplantar por voz e imagen
a personas existe y cada vez es más accesible.
Esto es así y debemos ser críticos...
Ahora, con lo que hemos hablado este rato,
podríamos crear un bot con mi voz y mi madre no podría
distinguirla.
Y por redes sociales corren muchas cosas
falsas. Yo, por ejemplo, tengo mucho cuidado con lo que recibo
por Whatsapp.
La ciudadanía debería intentar informarse a
través de canales serios; si se deja influenciar solo por la
burbuja que su Facebook o su TikTok le ha generado, va mal...