mano de obra invisible que hay detrás de los sistemas de IA. Sin humanos reales que realicen el tedioso trabajo de etiquetar conjuntos de datos, el aprendizaje automático y sus muchas aplicaciones en la vida real serían imposibles. Max Gruber / Better Images of AI
Por ello, es fácil que recombine segmentos que conceptualmente son como el agua y el aceite y que cree una explicación con errores importantes.
Además, sus fuentes de
entrenamiento son opacas y no sabemos de dónde ha sacado la
información que utiliza para explicarnos las ideas principales.
Y confundir coherencia
con verdad puede llevarnos a cometer errores desastrosos.
Algunas personas han quedado tan alucinadas que se habla ya del fin de Google, de estar un paso de la Inteligencia Artificial General (AGI), en la que los sistemas son comparables en inteligencia a los seres humanos.
Algunos, con aún mayor osadía, ven razones para dar la bienvenida a la Singularidad, ese estadio de desarrollo tecnológico en el que esta trasciende la inteligencia y el control humanos.
Este encantamiento suele
ir acompañado del emoji de la cabeza que explota...
quienes dotamos de significado a estos textos, que, en sentido estricto, no son producto del razonamiento
sino de vectores
probabilísticos...
Uno de los aspectos que más debería preocuparnos a estas alturas es precisamente esta capacidad de generar textos que se perciben como tremendamente coherentes y de enorme eficacia persuasiva.
Pero tal como está implementado, a efectos prácticos y si queremos usarlo de manera responsable, ChatGPT es poco más que un juguete para esas tardes en que ya estamos cansados del humor de TikTok, de rifirrafes tuiteros o de la última serie de moda...
Y es aquí donde encontramos un gran problema con ChatGPT.
Un problema que no es el único, ya que hay otros documentados como los sesgos discriminatorios o, curiosamente, los errores matemáticos y de razonamiento inferencial que contienen algunas de sus respuestas.
Por ejemplo,
de una noticia o de un artículo científico no se mide por la coherencia del texto, sino por la credibilidad de las fuentes, por la fortaleza de las evidencias y la solidez de los argumentos. Y es aquí donde encontramos un gran problema con ChatGPT.
Por un lado, sus fuentes de entrenamiento son opacas.
Pero ese es el menor de los problemas...
Así, ChatGPT nos ha recomendado un libro que no existe, cuyo supuesto título no es más que un "cadáver exquisito" construido con los títulos de dos libros diferentes y cuyo supuesto autor es un tercero no relacionado.
O cuando le pedimos que resuma las diferencias y similitudes entre dos autores, acaba asignando, erróneamente, opiniones del primer autor al segundo o viceversa.
El problema añadido es
que las respuestas erróneas a estas preguntas solo son evidentes
para quienes ya saben del tema.
Si le pedimos que genere una nueva respuesta, nos ofrecerá respuestas que, manteniendo un tono de total certidumbre, pueden ser del todo o parcialmente contradictorias
con las
generadas anteriormente...
Si le pedimos que genere
una nueva respuesta, nos ofrecerá respuestas que, manteniendo un
tono de total certidumbre, pueden ser del todo o parcialmente
contradictorias con las generadas anteriormente, y que habían sido
comunicadas con similar firmeza y certidumbre.
Digamos que más que a un
sofista, se parece más a un 'enteradillo' de Twitter.
...frecuentemente atribuida a Newton - aunque existe una viva polémica sobre su origen - celebra y reconoce las deudas intelectuales que tenemos con quienes nos precedieron.
Al presentar un batido, un remix, de conclusiones e ideas inestables, ChatGPT rompe radicalmente con esa valiosa tradición.
Decimos radicalmente, porque incluso si nos topáramos con una idea que resulta prometedora o inspiradora, resultaría virtualmente imposible descubrir su origen.
Cierto, la coherencia
intrínseca del programa la hace ideal para generar ese tipo de
textos, pero a los humanos también se nos da muy bien generarlos,
así que no hay ningún tipo de escalada cualitativa de esos
subproductos digitales.
La diferencia, sin
embargo, puede estar, de implementarse en la práctica e integrarse
con otros sistemas, en la facilidad que ofrece para crear estos
contenidos a gran escala.
A continuación un listado de posibles campos de actuación en su versión actual:
Siendo optimistas, una futura versión de este sistema podría aportar cierto valor. Para ello debería ser más robusto y fiable, y sus creadores deberían ofrecernos maneras para verificar que esta robustez y fiabilidad es tal...
Para ello debería ser más robusto y fiable, y sus creadores deberían ofrecernos maneras para verificar que esta robustez y fiabilidad es tal (por ejemplo, facilitando documentación acerca de los datos de entrenamiento además de fuentes verificables en los resultados).
Lo que este sistema NO
puede hacer es ser autor de argumentos, ya que para serlo, se
requiere querer decir algo y comprender lo que uno está diciendo.
Sin embargo, y dicho con cautela, no está nada claro que estos sistemas tengan estas capacidades.
Mediante medios probabilísticos, ChatGPT sí que puede decirnos que Lincoln fue apuñalado, pero es incapaz de inferir mediante sentido común que para apuñalar a alguien es necesario estar a su lado.
No debemos dejarnos llevar por el seductor encantamiento de la elocuencia basada en correlaciones.
ChatGPT es un
desarrollo experimental, técnicamente elogiable y
ciertamente entretenido, pero, bien mirado, no justifica que a
tantos les explote la cabeza y vean en dicho sistema el comienzo de
una nueva era de la creatividad y la inteligencia...
|