01 Marzo 2019
del Sitio Web
PijamaSurf
'Deep fake'
para textos:
la máquina a la
medida
para la era de
la posverdad...
Los últimos 3 años en Internet han estado dominados por la
incipiente conciencia del peligro de las
fake news y la
persuasión de votantes o consumidores a través de algoritmos que se
alimentan en tiempo real de su información para manipular su
conducta en línea.
Este riesgo, que algunos
consideran que atenta contra la democracia y la autonomía, podría
tener un nuevo actor con el desarrollo de programas que logran
escribir artículos que pueden hacerse pasar fácilmente por escritos
por humanos, hasta un punto indistinguible o casi indistinguible.
Hace un par de semanas la
plataforma OpenAI anunció que estaba
preocupada por el potencial uso nocivo de su
modelo GPT2, que ha
sido llamado "deep fake para textos".
La compañía, que tiene a
Elon Musk entre sus inversionistas, dijo que no hará pública
la información de su investigación por miedo a que esta tecnología
tenga ramificaciones negativas.
El modelo GPT2 es capaz
de generar texto plausible una vez que se le ha alimentado con un
texto, algo así como una idea a desarrollar que conecta con otra
información.
El sistema se diferencia de otros programas en que mantiene el mismo
tema y sintaxis y crea pasajes estándar que parecen redactados por
una persona.
Esta plataforma se
entrenó con más de 10 millones de artículos.
-
Por una parte, esto es
altamente interesante, pues este modelo puede realizar tareas como
traducir y resumir textos.
-
Pero por otro lado tiene un potencial que
aunque podemos imaginar a dónde podría llevar, realmente es casi
ilimitado en las posibilidades de usos que se le pueden dar para
engañar y manipular.
Por ejemplo,
el sistema
puede generar innumerables reseñas positivas o negativas de
productos.
Podría producir
innumerables mensajes de spam, e incluso estudiar bases de datos
para generar correos que busquen estafar a las personas.
O teorías
de la conspiración, o textos orientados a provocar a ciertos grupos
sociales o políticos.
Podría producir sitios
enteros de fake news o de información con fines
propagandísticos.
Aunque esta cautela es bienvenida, por otro lado es evidente que
esta tecnología en algunos años será desarrollada por otras personas
y probablemente pueda ser usada con fines nocivos.
Así que es importante
prepararnos y educarnos.
Lo que parece indudable
es que estamos llegando a un punto en el que la tecnología que
creamos está capacitada para rapazmente explotar algunas de nuestras
vulnerabilidades mentales y nuestro nivel moral e intelectual como
civilización no está a la altura para salvaguardar los usos de esta
tecnología, lo cual es preocupante.
Parece que vivimos en los
tiempos que Philip K. Dick
imaginó:
Las realidades falsas
crearán humanos falsos.
O bien, los seres
humanos falsos generarán realidades falsas y luego las venderán
a otros seres humanos, convirtiéndolas, eventualmente, en
falsificaciones de sí mismos.
Así que terminamos
con humanos falsos inventando realidades falsas y luego
vendiéndolas a otros humanos falsos.
|