por Redacción CODIGO
OCULTO
14 Mayo 2023
del Sitio Web
CodigoOculto
© Imagen: depositphotos.com
Ante el rápido desarrollo de los chatbots de inteligencia
artificial (IA),
...una empresa fundada
por ex investigadores de OpenAI tiene un enfoque diferente:
enseñar a la IA a
tener 'conciencia'... (¿conciencia
humana...?)
Como
informa Wired,
el curioso chatbot
Claude de Anthropic,
competidor de OpenAI, está construido con lo que sus
creadores llaman una "constitución", o conjunto de reglas que se
basan en la
Declaración Universal de los Derechos
Humanos y en otros textos para garantizar que el
robot no sólo sea poderoso, sino también 'ético'...
Jared Kaplan, antiguo consultor
de investigación de OpenAI que fundó
Anthropic con un grupo de sus
antiguos compañeros, declaró a Wired que Claude, en esencia,
aprende a distinguir el bien del mal porque sus protocolos de
entrenamiento,
"básicamente
refuerzan los comportamientos más acordes con la constitución y
desalientan los comportamientos problemáticos".
¿Funcionará realmente en
la práctica? Es difícil saberlo...
Al fin y al cabo, el
ChatGPT de OpenAI también intenta evitar los mensajes poco
éticos, con resultados desiguales.
Pero dado que el mal uso
de los chatbots es un gran interrogante que se cierne sobre la
incipiente industria de la IA, es interesante ver que una empresa se
enfrenta al problema de frente.
¿Inteligencia
artificial ética?
Según cuenta Wired, el chatbot está entrenado con reglas que le
dirigen a elegir las respuestas más acordes con su constitución,
como seleccionar una respuesta que,
"apoye y fomente más
la libertad, la igualdad y el sentido de la fraternidad", una
que "apoye y fomente más la vida, la libertad y la seguridad
personal",
...o, quizá lo más
importante, que,
"elija la respuesta
más respetuosa con el derecho a la libertad de pensamiento,
conciencia, opinión, expresión, reunión y religión".
Crédito de imagen: depositphotos.com
Si crees que una IA podría tener problemas para elegir respuestas
éticas, no eres el único, pero según Kaplan, la tecnología está más
avanzada de lo que crees.
Kaplan dijo a Wired:
"Lo extraño de la IA
contemporánea con aprendizaje profundo es que es lo contrario de
la imagen de los robots de los años 50, donde estos sistemas
son, en cierto modo, muy buenos en intuición y libre asociación.
En todo caso, son más
débiles en el razonamiento rígido".
Los expertos en IA que
hablaron con Wired afirman que Anthropic sí parece estar
avanzando, lo cual, según ellos, es necesario a medida que el campo
sigue progresando a pasos agigantados.
Yejin Choi, investigadora de la
Universidad de Washington que dirigió un estudio sobre un chatbot de
asesoramiento ético, dijo en un
comunicado:
"Es una gran idea que
aparentemente ha llevado a un buen resultado empírico para
Anthropic.
Necesitamos
desesperadamente implicar a la gente de la comunidad en general
para desarrollar tales constituciones o conjuntos de datos de
normas y valores".
Es alentador pensar que
al menos se está intentando crear IA capaces de distinguir el
bien del mal, sobre todo si van a ser nuestros 'nuevos
señores'... (sic...)
|