por Guillaume Thierry

21 Abril 2025

del Sitio Web ElConfidencial

Versión original en ingles

 

 

 

 

 

 


Tenemos una idea equivocada.
Las tecnológicas

nos están intentando engañar:

la IA, a pesar de sus capacidades

similares a las nuestras,

es una máquina estadística

que carece de comprensión, conciencia

o cualidades humanas genuinas...

 

 


Constantemente nos dan una versión de la IA que mira, suena y actúa sospechosamente como nosotros.

Habla con frases pulidas, imita emociones, expresa curiosidad, afirma sentir compasión, incluso hace incursiones en lo que llama 'creatividad'...

Pero esta es la verdad:

no posee ninguna de esas cualidades.

 

No es humana...

¿Y presentarla como si lo fuera?

Eso es peligroso.

 

Porque convence.

 

Y nada es más peligroso que una ilusión convincente...

En particular, la inteligencia artificial general - la clase mítica de IA que supuestamente imita el pensamiento "humano" - sigue siendo ciencia ficción, y podría seguir siéndolo.

Lo que hoy llamamos IA no es más que una máquina estadística:

un loro digital que regurgita patrones extraídos de océanos de datos humanos (la situación no ha cambiado mucho desde que se discutió aquí hace cinco años).

Cuando escribe una respuesta a una pregunta, literalmente solo adivina qué letra y palabra vendrán después en una secuencia, basándose en los datos con los que se ha entrenado.

Esto significa que,

la IA no tiene comprensión.

 

Ni consciencia.

 

Ni conocimiento en ningún sentido real, humano.

 

Solo brillantez pura, impulsada por la probabilidad e ingenierizada...

¡Nada más y nada menos...!

Entonces, ¿por qué es probable que una IA "pensante" real sea imposible?

Porque no tiene cuerpo.

 

No tiene sentidos, ni carne, ni nervios, ni dolor, ni placer.

 

No tiene hambre, deseo ni miedo.

 

Y como no hay cognición - ni una pizca - existe una brecha fundamental entre los datos que consume (datos nacidos de sentimientos y experiencias humanas) y lo que puede hacer con ellos.

El filósofo David Chalmers llama al misterioso mecanismo subyacente a la relación entre nuestro cuerpo físico y la consciencia el,

"problema difícil de la consciencia - Facing Up to the Problem of Consciousness"...

Científicos eminentes han teorizado recientemente que la consciencia en realidad emerge de la integración de estados mentales internos con representaciones sensoriales (como cambios en la frecuencia cardíaca, sudoración y mucho más).

Dada la importancia primordial de los sentidos y la emoción humanos para que la consciencia "suceda", existe una desconexión profunda y probablemente irreconciliable entre la IA general, la máquina, y la consciencia, ¡un fenómeno humano...!

 

 

 


El Amo

Antes de que argumentes que los programadores de IA son humanos, déjame detenerte ahí...

Sé que son humanos.

 

Eso es parte del problema.

 

¿Confiarías tus secretos más profundos, decisiones de vida, agitación emocional, a un programador informático?

Sin embargo, eso es exactamente lo que la gente está haciendo:

¡solo pregunta a Claude, GPT-4.5, Gemini... o, si te atreves, Grok...!

Darle a la IA un rostro, voz o tono humano es un acto peligroso de travestismo digital.

Desencadena una respuesta automática en nosotros, un reflejo antropomórfico, que conduce a afirmaciones aberrantes según las cuales se dice que algunas IA han pasado la famosa prueba de Turing (que evalúa la capacidad de una máquina para exhibir un comportamiento inteligente similar al humano).

Pero creo que si las IA están pasando la prueba de Turing, necesitamos actualizar la prueba.

La máquina de IA no tiene ni idea de lo que significa ser humano.

No puede ofrecer una compasión genuina.

 

No puede prever tu sufrimiento.

 

No puede intuir motivos ocultos o mentiras.

 

No tiene gusto, ni instinto, ni brújula interior.

 

Está desprovista de toda la complejidad desordenada y encantadora que nos hace quienes somos.

Aún más preocupante:

la IA no tiene objetivos propios, ni deseos ni ética, a menos que ¡se inyecten en su código...!

Eso significa que el verdadero peligro no reside en la máquina, sino en su amo:

el programador, la corporación, el gobierno.

¿Aún te sientes seguro?

Y por favor, no me vengas con:

"¡Eres demasiado duro! ¡No estás abierto a las posibilidades!"

O peor:

"Qué visión tan sombría. Mi amigo IA me calma cuando estoy ansioso".

¿Me falta entusiasmo?

 

Difícilmente.

Uso la IA todos los días.

 

Es la herramienta más poderosa que he tenido jamás.

 

Puedo traducir, resumir, visualizar, codificar, depurar, explorar alternativas, analizar datos, más rápido y mejor de lo que jamás soñé hacer por mí mismo.

Estoy ¡asombrado...!

 

Pero sigue siendo una herramienta:

nada más y nada menos...

Y como toda herramienta que los humanos han inventado, desde hachas de piedra y hondas hasta computación quántica y bombas atómicas, se puede usar como arma... se usará como arma...

¿Necesitas una imagen?

Imagina enamorarte de una IA embriagadora, como en la película 'Her'.

 

Ahora imagina que "decide" dejarte.

 

¿Qué harías para detenerla?

Y para que quede claro:

no será la IA quien te rechace.

 

Será el humano o el sistema detrás de ella, empuñando esa herramienta convertida en arma para controlar tu comportamiento...

 

 


Quitando la Máscara

Entonces, ¿a dónde voy con todo esto?

Debemos dejar de dar rasgos humanos a la IA.

Mi primera interacción con GPT-3 me molestó bastante.

Pretendía ser una persona.

 

Decía tener sentimientos, ambiciones, incluso consciencia.

Afortunadamente, ese ya no es el comportamiento predeterminado.

 

Pero el estilo de interacción - el flujo de conversación inquietantemente natural - permanece intacto.

Y eso también convence.

 

Demasiado...

Necesitamos,

desantropomorfizar la IA.

 

¡Ahora...!

 

Quitarle su máscara humana.

Esto debería ser fácil.

 

Las empresas podrían eliminar toda referencia a la emoción, el juicio o el procesamiento cognitivo por parte de la IA. En particular, debería responder objetivamente sin decir nunca "yo", o "siento que"... o "tengo curiosidad".

¿Sucederá? Lo dudo.

 

Me recuerda otra advertencia que hemos ignorado durante más de 20 años:

"Necesitamos reducir las emisiones de CO2."

Mira a dónde nos ha llevado eso...

 

Pero debemos advertir a las grandes empresas tecnológicas de los peligros asociados con la humanización de las IA. Es poco probable que colaboren, pero deberían hacerlo, especialmente si se toman en serio el desarrollo de IA más éticas.

Por ahora, esto es lo que hago (porque yo también tengo a menudo esa inquietante sensación de estar hablando con un humano sintético cuando uso ChatGPT o Claude...):

le indico a mi IA que no se dirija a mí por mi nombre.

 

Le pido que se llame a sí misma IA, que hable en tercera persona y que evite términos emocionales o cognitivos.

 

Si estoy usando el chat de voz, le pido a la IA que use una prosodia plana y que hable un poco como un robot.

En realidad, es bastante divertido y nos mantiene a ambos en nuestra zona de confort...