del Sitio Web Avi-Loeb traducción de Codigo Oculto 03 Abril 2023 del Sitio Web CodigoOculto Crédito imagen de portada: depositphotos.com
En este artículo, el autor Avi Loeb hace un repaso sobre, la tecnología de Inteligencia Artificial y sobre la posibilidad de que los futuros sistemas desarrollados sean legalmente responsables de sus 'actos'...
Están surgiendo indicios preliminares de nuevos retos jurídicos en relación con la inteligencia artificial (IA) a partir de los fallos de software en accidentes de coches auto-conducidos y la preocupación por la violación de los derechos de propiedad intelectual de los autores de textos sobre los que se entrenó el ChatGPT.
Me inspiré para considerar las ramificaciones legales de la IA en el futuro inmediato tras un foro de WORLD.MINDS esta mañana en el que se plantearon estas cuestiones en una conversación con el distinguido abogado John B. Quinn.
La idea de que estamos
cerca de tener sistemas de inteligencia artificial no es
sorprendente, dado que la GPT-4 tiene
cien billones de parámetros, a un
factor de 6 del
número de sinapsis del cerebro
humano.
Posible futuros riesgos de la IA
¿Quién debe ser considerado responsable de tales acciones?
Esto equivaldría a responsabilizar a los padres de los daños causados por sus bebés incultos cuando éstos se portan mal en la vía pública.
Pero cuando los bebés alcanzan la edad adulta, se les hace responsables de sus propios actos.
Lo mismo debe aplicarse cuando los sistemas de IA sintientes se vuelven autónomos y aumentan sus capacidades mucho más allá de la fase de entrenamiento configurada por sus creadores.
GPT-4 obtuvo 297 puntos
en el examen de acceso a abogacía, situándose en el percentil 90 de
los examinados humanos, suficiente para ser admitido a ejercer la
abogacía en la mayoría de los estados.
depositphotos.com
Como ocurre con cualquier tecnología emergente, como la investigación con células madre, los gobiernos deben imponer algunas normas básicas para la IA en todos los aspectos que afectan a la vida y la prosperidad humanas.
Los sistemas informáticos requieren presupuestos y conocimientos técnicos modestos y pueden desarrollarse en sótanos de todo el mundo.
Dados estos riesgos, quizá no queramos que el "gato cuide de la leche".
En caso de que un sistema de IA sensible reciba un veredicto de culpabilidad tras causar muertes humanas, ¿debería ser desconectado de la red eléctrica?
Privarlo de energía eléctrica equivaldría a condenar a muerte a un asesino en serie.
El principal reto es que los sistemas de IA pueden reiniciarse, mientras que los humanos - al menos por ahora - desaparecen tras la ejecución de una sentencia de muerte.
Además, los algoritmos de IA existen en numerosos ordenadores a la vez y puede ser imposible erradicarlos.
De ser así, las últimas reliquias de civilizaciones tecnológicas extraterrestres serían sondas controladas por IA cerca de la Tierra.
El Proyecto Galileo vigila el cielo en busca de tales sondas con su recién montado observatorio infrarrojo-óptico-radio-audio en la Universidad de Harvard, y planea una expedición en el verano de 2023 al Océano Pacífico para recuperar reliquias del primer meteorito interestelar que podría haber sido un artefacto alienígena basándose en su inusual resistencia material.
Esperemos que aprendamos las lecciones que estos paquetes envían a nuestro buzón y nos adaptemos para sobrevivir a este futuro antes de que sea demasiado tarde.
Si no aprendemos lo bastante rápido de las experiencias pasadas de los extraterrestres, nuestros propios sistemas de inteligencia artificial pronto podrían parecer ajenos a nuestros sistemas jurídicos y políticos.
|