por Avi Loeb
31 Marzo 2023

del Sitio Web Avi-Loeb

traducción de Codigo Oculto

03 Abril 2023

del Sitio Web CodigoOculto

Versión original en ingles




Crédito imagen de portada:

depositphotos.com

 

 

 

En este artículo, el autor Avi Loeb

hace un repaso sobre,

la tecnología de Inteligencia Artificial

y sobre la posibilidad de que

los futuros sistemas desarrollados

sean legalmente responsables de sus 'actos'...

 

 

 

Están surgiendo indicios preliminares de nuevos retos jurídicos en relación con la inteligencia artificial (IA) a partir de los fallos de software en accidentes de coches auto-conducidos y la preocupación por la violación de los derechos de propiedad intelectual de los autores de textos sobre los que se entrenó el ChatGPT.

 

Me inspiré para considerar las ramificaciones legales de la IA en el futuro inmediato tras un foro de WORLD.MINDS esta mañana en el que se plantearon estas cuestiones en una conversación con el distinguido abogado John B. Quinn.


En una reciente carta abierta, firmada por 1.100 personas, entre ellas Elon Musk y Steve Wozniak, se pedía una moratoria de seis meses para el entrenamiento de sistemas de IA más allá de la GPT-4.

 

La idea de que estamos cerca de tener sistemas de inteligencia artificial no es sorprendente, dado que la GPT-4 tiene cien billones de parámetros, a un factor de 6 del número de sinapsis del cerebro humano.
 

 

 

 

Posible futuros riesgos de la IA


Los riesgos futuros de los potentes sistemas de IA incluyen,

  • la asignación de recetas erróneas a partir de diagnósticos defectuosos de datos médicos

  • la creación de pandemias mediante la ingeniería genética de virus

  • el control de armas de destrucción masiva

  • la falsificación de resultados científicos que dañen nuestra calidad de vida...

¿Quién debe ser considerado responsable de tales acciones?


El planteamiento tradicional sería responsabilizar a los desarrolladores y comercializadores de sistemas de IA de las desgracias de sus productos.

 

Esto equivaldría a responsabilizar a los padres de los daños causados por sus bebés incultos cuando éstos se portan mal en la vía pública.

 

Pero cuando los bebés alcanzan la edad adulta, se les hace responsables de sus propios actos.

 

Lo mismo debe aplicarse cuando los sistemas de IA sintientes se vuelven autónomos y aumentan sus capacidades mucho más allá de la fase de entrenamiento configurada por sus creadores.


Un estudio reciente indica que GPT-4 supera a los licenciados en Derecho en el examen de acceso a la abogacía, la agotadora prueba de dos días que los aspirantes a abogados deben superar para ejercer la abogacía en Estados Unidos.

 

GPT-4 obtuvo 297 puntos en el examen de acceso a abogacía, situándose en el percentil 90 de los examinados humanos, suficiente para ser admitido a ejercer la abogacía en la mayoría de los estados.
 

 


Crédito de imagen:

depositphotos.com


Cuando los sistemas de IA lleguen a ser sensibles y capaces de manipular a las personas, existe la posibilidad de que la IA decida engañar a los humanos, discriminar en las solicitudes de empleo, violar las leyes de privacidad o provocar daños comerciales.

 

¿Debería perseguirse a un sistema de inteligencia artificial que infrinja la ley?

 

En tal caso, ¿debería permitirse que el sistema de IA contara con la representación legal de otro sistema de IA sintiente que hubiera aprobado el examen de acceso a la abogacía?

Como ocurre con cualquier tecnología emergente, como la investigación con células madre, los gobiernos deben imponer algunas normas básicas para la IA en todos los aspectos que afectan a la vida y la prosperidad humanas.


La mitigación de los riesgos de los sistemas de IA no es tan fácil como en el caso de las armas atómicas, porque los materiales nucleares necesarios para una bomba son extremadamente caros y exigen la implicación del gobierno.

 

Los sistemas informáticos requieren presupuestos y conocimientos técnicos modestos y pueden desarrollarse en sótanos de todo el mundo.


Una de las principales preocupaciones de la sociedad es que los gobiernos utilicen la potente IA como arma para la ciberguerra internacional y para manipular a sus conciudadanos.

 

Dados estos riesgos, quizá no queramos que el "gato cuide de la leche".

 

 

 


¿Cuál debería ser el castigo por un "crimen" cometido por una IA?


Por último, está la cuestión del castigo adecuado para un crimen de IA.

 

En caso de que un sistema de IA sensible reciba un veredicto de culpabilidad tras causar muertes humanas, ¿debería ser desconectado de la red eléctrica?

 

Privarlo de energía eléctrica equivaldría a condenar a muerte a un asesino en serie.

 

El principal reto es que los sistemas de IA pueden reiniciarse, mientras que los humanos - al menos por ahora - desaparecen tras la ejecución de una sentencia de muerte.

 

Además, los algoritmos de IA existen en numerosos ordenadores a la vez y puede ser imposible erradicarlos.


Tal vez estos retos ofrezcan una nueva resolución a la Paradoja de Fermi de "¿dónde están todos?" en relación con las civilizaciones extraterrestres.

 

De ser así, las últimas reliquias de civilizaciones tecnológicas extraterrestres serían sondas controladas por IA cerca de la Tierra.

 

El Proyecto Galileo vigila el cielo en busca de tales sondas con su recién montado observatorio infrarrojo-óptico-radio-audio en la Universidad de Harvard, y planea una expedición en el verano de 2023 al Océano Pacífico para recuperar reliquias del primer meteorito interestelar que podría haber sido un artefacto alienígena basándose en su inusual resistencia material.


Encontrar los productos de otras civilizaciones tecnológicas que nos precedieron podría informarnos sobre nuestro probable futuro.

 

Esperemos que aprendamos las lecciones que estos paquetes envían a nuestro buzón y nos adaptemos para sobrevivir a este futuro antes de que sea demasiado tarde.

 

Si no aprendemos lo bastante rápido de las experiencias pasadas de los extraterrestres, nuestros propios sistemas de inteligencia artificial pronto podrían parecer ajenos a nuestros sistemas jurídicos y políticos.