Pienso en la
naturaleza fundamental de la mente y la naturaleza del yo.
Últimamente, he
estado pensando en estos temas en relación con las tecnologías
emergentes. En particular, he estado pensando en el futuro de la
mente y en cómo la tecnología de la IA podría reformar la mente
humana y crear mentes sintéticas.
A medida que la
IA (Inteligencia Artificial)
se hace más sofisticada, una cosa en la que he estado muy
interesada es en si los seres que podríamos crear podrían tener
experiencias conscientes.
Cuando ves los ricos matices de una puesta de sol o cuando
hueles el aroma de tu café matutino, estás teniendo una
experiencia consciente.
La experiencia
consciente es muy familiar para ti. De hecho, no hay un momento
de tu vida en el que no seas un ser consciente.
Si tenemos inteligencia general artificial, inteligencia capaz
de conectar flexiblemente ideas a través de diferentes ámbitos y
tal vez lográsemos tener una experiencia sensorial, querría
saber si sería consciente o simplemente computar en la
oscuridad, comprometiéndose en cosas como las tareas de
reconocimiento visual desde una perspectiva computacional, pero
no siendo verdaderamente consciente.
A diferencia de muchos filósofos, de muchas personas que están
en los medios de comunicación y de los
transhumanistas, tiendo a tomar
un enfoque de "esperar y ver" sobre la conciencia de la máquina.
Por un lado, rechazo
una línea totalmente escéptica. Ha habido filósofos conocidos en
el pasado que han sido escépticos sobre la posibilidad de la
conciencia de la máquina - por ejemplo, el filósofo
John Searle - pero creo que
es demasiado pronto para saberlo.
Hay muchas variables
que determinan si habrá máquinas conscientes.
Por otra parte, tenemos que preguntarnos si es compatible con
las leyes de la naturaleza crear máquinas que sean
conscientes.
Simplemente no
sabemos si la conciencia puede ser algo que se implementa en
otros sustratos. No sabemos cuáles serán los microchips más
rápidos, así que no sabemos de qué estaría hecha una
inteligencia general artificial.
Así que, hasta ese
momento, es difícil para nosotros decir que algo que es
altamente inteligente es o no consciente.
Probablemente lo más seguro en este momento es abrir una brecha
conceptual entre la idea de la inteligencia sofisticada, por un
lado, y la conciencia, por otro. Lo que necesitamos es mantener
una mente abierta y sospechar que puede ser, por lo que sabemos
actualmente, que las inteligencias más sofisticadas no serán
conscientes.
Hay muchos hechos que
determinarán si las máquinas conscientes son posibles.
Supongamos por un
minuto que es posible, al menos en principio, construir una
inteligencia artificial consciente. ¿Quién querría hacerlo?
Piensen en los debates que están teniendo lugar ahora mismo
sobre los derechos de los androides, por ejemplo.
Supongamos que todos esos androides japoneses que están siendo
diseñados para cuidar de los hogares de las personas y cuidar de
los ancianos resultan ser conscientes.
No estoy tan seguro
de que a las empresas de inteligencia artificial les convenga
producir seres conscientes.
De hecho, pueden
decidir hacer ingeniería para eliminar la conciencia. Por
supuesto, no sabemos si la conciencia puede ser diseñada dentro
o fuera de una máquina.
Por lo que sabemos
ahora mismo, puede que no sea compatible con las leyes de la
naturaleza producirlo.
Por el contrario,
podría ser un subproducto inevitable del cálculo sofisticado, y
entonces tendremos que estar muy preocupados por los derechos de
los androides y otros IAs.
Si las máquinas resultan ser conscientes, no sólo aprenderemos
sobre las mentes de las máquinas, sino también sobre nuestras
propias mentes. Podríamos aprender más sobre la naturaleza de la
experiencia consciente, lo que podría llevarnos a reflexionar
como cultura sobre lo que es ser un ser consciente.
Los humanos ya no
serían especiales en el sentido de ser capaces de pensar
intelectualmente. Estaríamos compartiendo esa posición con
seres sintéticos que ni
siquiera están hechos de las mismos materiales que nosotros.
A medida que las civilizaciones se vuelven más inteligentes,
pueden llegar a ser post-biológicas.
Por lo tanto, la
inteligencia sintética podría resultar ser una consecuencia
natural de las civilizaciones tecnológicas exitosas. En un
tiempo relativamente corto, hemos logrado crear inteligencias
artificiales interesantes y sofisticadas.
Ahora estamos
volviendo la inteligencia artificial hacia adentro en términos
de construir prótesis neuronales para mejorar el cerebro humano.
Ya vemos a gurús de
la tecnología como
Ray Kurzweil y
Elon Musk hablando de
mejorar la inteligencia humana con chips cerebrales, no sólo
para ayudar a las personas con trastornos cerebrales, sino
también para ayudar a las personas a vivir más tiempo y a ser
más inteligentes.
Puede ser el caso que
las civilizaciones a través del universo
se volviesen post-biológicas y mejoraron su inteligencia para
convertirse en seres sintéticos ellos mismos.
***
Comencé mi vida académica como economista y luego tropecé en una
clase con
Donald Davidson, el
eminente filósofo.
Descubrí que me
gustaba la filosofía angloamericana y me puse a trabajar con
Jerry Fodor, un famoso
filósofo de la mente que era un crítico de las ideas que ahora
han dado lugar al deep learning.
Fodor y yo pasábamos horas discutiendo sobre el alcance y los
límites de la inteligencia artificial. No estaba de acuerdo con
él sobre sus puntos de vista acerca del
deep learning.
Fodor afirmaba que el
cerebro no es computacional, y que la inteligencia artificial
probablemente no tendría éxito cuando llegase al nivel de la
inteligencia artificial general porque había alguna
característica especial sobre la mente humana que no es
computacional.
Es decir, se refería
a lo que él llamaba "los sistemas centrales", las áreas del
cerebro que van más allá de las funciones mentales altamente
compartimentadas, aquello que da lugar a la creatividad y
cognición humanas.
Argumenté que el cerebro era computacional hasta la médula.
Mientras trabajaba
con Fodor, leí mucho acerca de la
neurociencia computacional.
Insistí en que el
cerebro puede ser un sistema híbrido que podría describirse en
términos del enfoque de red neuronal que se ve en la
neurociencia computacional, pero en el que estas descripciones
de nivel superior que se ven en la psicología cognitiva hacen
referencia al formato del pensamiento al que personas como Jerry
Fodor apelan:
el lenguaje del
pensamiento, que sostiene que el cerebro es un dispositivo
de procesamiento de símbolos que manipula los símbolos de
acuerdo con las reglas.
Hubiera sido
divertido hablar con Fodor sobre sistemas de aprendizaje
profundo.
Me imagino que
todavía sería bastante escéptico sobre la posibilidad de que
estos sistemas se desarrollen más allá de lo que algunas
personas llaman inteligencia general artificial.
No estoy sugiriendo
en absoluto que los recursos actuales puedan dar lugar a algo
tan sofisticado.
Sin embargo, creo que
con todo el dinero que se invierte en inteligencia artificial,
con la velocidad de la computación mejorando año tras año,
encontrando microchips cada vez mejores y más rápidos, la
posibilidad de que la computación quántica se desarrolle de una
manera seria, nos encamina hacia una inteligencia artificial que
progresivamente mejore.
Viendo el éxito de Deep Mind empecé a ser más optimista
acerca de la creación de una IA más sofisticada.
No sólo crearemos
robots inteligentes, sino que también nos meteremos a la IA en
la cabeza y cambiaremos la mente humana. Entonces empecé a
preocuparme de cómo esto podría transformar la sociedad.
Veo muchos malentendidos en las discusiones actuales sobre la
naturaleza de la mente, como la suposición de que si creamos una
IA sofisticada, inevitablemente será consciente.
También existe la
idea de que deberíamos "fusionarnos con la IA", es decir, que
para que los seres humanos puedan seguir el desarrollo de la IA
y no sucumbir a la hostilidad de las IA superinteligentes o al
desempleo tecnológico basado en la IA, necesitaremos mejorar
nuestros propios cerebros con la tecnología de la IA.
Una cosa que me preocupa de todo esto es que no creo que las
compañías dedicadas al desarrollo de las IAs deban resolver
asuntos relacionados con la naturaleza de la mente. El futuro de
la mente debe ser una decisión cultural y una decisión
individual.
Muchos de los temas
en juego aquí involucran problemas filosóficos clásicos que no
tienen soluciones fáciles.
Pienso, por ejemplo,
en teorías sobre la naturaleza del yo en el campo de la
metafísica. Supón que insertas un microchip para mejorar tu
memoria, y luego años después agregas otro microchip para
integrarte con Internet, y sigues añadiendo mejoras.
¿En qué momento serás
tú...?
Cuando piensas en
mejorar el cerebro, la idea es mejorar tu vida para hacerte más
inteligente, o más feliz, tal vez incluso para vivir más tiempo,
o tener un cerebro más agudo a medida que envejeces, pero,
¿qué pasa si esas
mejoras nos cambian de manera tan drástica que ya no somos
la misma persona?
Estos son temas en los que filósofos como Hume, Locke,
Nietzsche y Parfit han estado pensando durante
años en el contexto de los debates sobre la naturaleza de la
mente.
Ahora que tenemos la
oportunidad de esculpir nuestras propias mentes, creo que
necesitamos dialogar con estas posiciones filosóficas clásicas
sobre la naturaleza del yo.
Estoy preocupada por la obsesión con la tecnología.
Me considero una
tecno-progresista en el sentido de que quiero que la tecnología
se utilice para mejorar las vidas humanas, pero debemos tener
cuidado con la aceptación inquebrantable de esta idea de
fusionarnos con IAs o incluso tener una Internet de las cosas
a nuestro alrededor en todo momento.
Lo que tenemos que hacer ahora que se están desarrollando estas
tecnologías de mejora neuronal es mantener un diálogo público
sobre esto.
Es necesario que
participen todas las partes interesadas, desde las personas que
investigan estas tecnologías hasta los políticos, pasando por
los ciudadanos de a pie, especialmente los jóvenes, para que, a
medida que tomen decisiones sobre la mejora del cerebro, puedan
hacerlo con mayor escrutinio.
Aquí entran en juego
las cuestiones filosóficas clásicas sobre la naturaleza del yo y
la naturaleza de la conciencia.
Los consejos de ética de la IA en las compañías más grandes son
importantes, pero en cierto modo, es el zorro el que cuida el
gallinero.
La única manera de
que tengamos un futuro positivo en lo que respecta al uso de las
tecnologías de IA para crear mentes sintéticas y mejorar la
mente humana es acercar estos temas directamente al público,
razón por la cual me importa mucho la participación pública y
asegurarme de que todas las partes interesadas estén
involucradas.
****
¿Cómo podemos saber si una máquina es consciente?
He sugerido que no
podemos asumir que la inteligencia artificial sofisticada será
consciente. Además, puede ser que la conciencia sólo se
desarrolle en ciertos programas de IA o con ciertos sustratos,
ciertos tipos de microchips y no otros.
Por lo que sabemos
ahora mismo, tal vez los sistemas basados en
el silicio pueden ser
conscientes, pero los sistemas que utilizan nanotubos de
carbono no puedan.
Simplemente no lo
sabemos. Es una pregunta empírica. Por lo tanto, sería útil
hacerse pruebas.
La parte difícil es que incluso hoy en día no podemos decir
exactamente qué están haciendo los sistemas de aprendizaje
profundo.
El
problema de la caja negra de la
IA versa sobre cómo podemos saber cuáles son los cálculos en los
sistemas de aprendizaje profundo.
En lugar de mirar bajo el capó la arquitectura de la IA, la
manera más productiva de determinar la conciencia en las
máquinas es doble. Lo primero que hay que hacer es una prueba
basada en el comportamiento, que he desarrollado en el
Instituto de Estudios Avanzados con el astrofísico,
Edwin Turner.
Es una prueba simple.
Un hecho de que somos seres conscientes es que podemos entender
los experimentos de pensamiento que involucran a la mente.
Puede que hayas visto
la película
Freaky Friday, sobre una
madre y su hija que intercambiaban sus cuerpos.
¿Porqué tenía sentido
para nosotros...?
Tenía sentido para
nosotros porque podemos imaginar que la mente abandona el
cuerpo. Ahora, no estoy diciendo que la mente abandona el
cuerpo, pero podemos visualizar situaciones, al menos a grandes
rasgos, que involucran,
Lo que tenemos que
hacer entonces es buscar IAs que sean capaces de imaginar este
tipo de situaciones.
Hay una objeción a
esto ya que podemos programar una IA para que actúe como si
fuera consciente. Ya hoy en día hay IAs que te hablarán y
actuarán como si estuvieran teniendo una vida mental.
Considere a 'Sophia'
de
Hanson Robotics.
Ella habla contigo, y
la prensa incluso habla de ella como si fuera un ser consciente.
Incluso le ofrecieron
la ciudadanía en Arabia Saudita,
lo que es interesante.
Si no le das a la inteligencia artificial conocimiento sobre la
neurociencia y la conciencia humana y ves comportamientos
anómalos cuando la examinas para experimentarla conscientemente,
hazle experimentos de pensamiento y mira cómo reacciona.
Pregúntale
simplemente:
"¿Te imaginas
existir más allá de la destrucción de tus partes?"
Turner y yo hemos
escrito varias preguntas, una especie de
prueba de Turing para la
conciencia de la máquina, diseñada para provocar comportamientos
en las máquinas con la finalidad de asegurarnos de que no
obtengamos falsos positivos.
Dicho esto, no creo
que la prueba sea la única manera de acercarse a la conciencia
de la máquina.
Es lo que los
filósofos llaman una "condición suficiente" para la conciencia
de la máquina. Así que si la pasa tenemos razones para creer que
es consciente.
Pero si algo falla,
otras pruebas podrían determinar que, a pesar de todo, sigue
siendo consciente.
Permítanme hablar sobre la segunda forma de determinar si las
máquinas pueden ser conscientes, porque se trata de un camino
sensato dado el desarrollo actual de los chips cerebrales.
A medida que usamos
neuro-prótesis o chips cerebrales en partes del cerebro que
subyacen a la experiencia consciente en los seres humanos, si
esos chips tienen éxito y si no observamos déficits de
conciencia, entonces tenemos razones para creer que ese
microchip hecho de un material en particular, digamos, silicio,
podría respaldar la conciencia cuando se encuentra en el entorno
arquitectónico correcto.
Eso sería importante si determináramos que otro material, cuando
se pone en el cerebro humano, no cambiaría la calidad de nuestra
experiencia consciente cuando está en las áreas del cerebro que
creemos que son responsables de la conciencia.
Eso significaría que,
en principio, tal vez podríamos desarrollar una conciencia
sintética. Incluso podríamos hacerlo simplemente reemplazando
gradualmente el cerebro humano por componentes artificiales
hasta que al final del día tengamos un ser que sea una IA
completa.
Me encanta la intersección entre filosofía y ciencia, o la parte
donde la ciencia se vuelve turbia y uno tiene que pensar en las
implicaciones.
Ejemplos de esto
serían las teorías de la emergencia del espacio-tiempo en la
física, donde se formulan teorías matemáticas y luego se sacan
conclusiones sobre la naturaleza
del tiempo.
Cuestiones como ésta
implican un delicado equilibrio entre las consideraciones
matemáticas o empíricas y las cuestiones filosóficas.
Ahí es donde me gusta
intervenir e involucrarme...
Estoy interesada en el alcance y límite de lo que podemos
conocer como humanos. Puede ser que a medida que mejoremos
nuestros cerebros, encontremos respuestas a algunos de estos
problemas filosóficos clásicos. ¿Quién sabe...?
Por ahora, si
desarrollamos la tecnología de la inteligencia artificial sin
pensar cuidadosamente en temas relacionados con la naturaleza de
la conciencia o la naturaleza del ser, veremos que las
tecnologías de la inteligencia artificial pueden no hacer lo que
la gente que las desarrolla pretende que hagan, que es mejorar
nuestras vidas y promover el florecimiento humano.
Tenemos que tener cuidado de saber si estamos creando seres
conscientes y sabremos si mejorar radicalmente nuestros cerebros
es compatible con la supervivencia de la persona, de lo
contrario estas tecnologías conducirán a la explotación
y el sufrimiento de los seres conscientes en lugar de
mejorar la vida de las personas.
Me gusta vivir en ese espacio de humildad donde chocamos con un
muro epistemológico porque nos enseña los límites de lo que los
humanos pueden entender.
A veces es importante
recordar en estos tiempos de innovaciones tecnológicas, que
siempre habrá cuestiones a las que no podemos dar respuestas
definitivas.
Un buen ejemplo de
esto es la pregunta de si somos
cerebros en cubetas, viviendo
nuestras vidas dentro de simulaciones por computadora.
Se trata de
cuestiones epistemológicas, cuestiones relacionadas con la
naturaleza del conocimiento que no tienen respuestas fáciles.