-
por L.J. Vanier del Sitio Web ISoulScience
traducción de
Adela Kaufmann
"El éxito en la creación de la IA (Inteligencia Artificial) sería el evento más grande en la historia humana y posiblemente el último. "
Steven Hawking
Los avances tecnológicos están sucediendo a un ritmo extremadamente rápido y si nos remontamos diez años hasta 2005, encontramos que gran parte de lo que disfrutamos ahora,
... no existían en aquel entonces.
Si vamos más atrás en la década de 1900 nos encontramos con que los hermanos Wright estaban buscando completar su primer vuelo y el Ford Modelo T era todavía sólo un prototipo.
Esto realmente demuestra lo rápido que estamos progresando en términos de tecnología. De hecho, algunos expertos predicen que en este siglo vamos a hacer 1,000 veces el progreso en tecnología, en comparación con el último siglo.
Esto ha llevado a muchos a preguntarse:
Aquí es donde surge la cuestión de la singularidad.
En pocas palabras, la singularidad es el momento en que se crea una inteligencia que es más inteligente que cualquier ser humano en el planeta y en esta inteligencia comienza a hacer copias más inteligentes de sí mismo, continuando a un ritmo cada vez mayor. Esta inteligencia se volvería rápidamente más inteligente que todos los seres humanos combinados, por lo que es la fuerza intelectual dominante en la Tierra.
Hasta hace poco, sólo hemos estado tratando con IAE y IAG.
Ahora, por fin, hay Súper Inteligencia Artificial (SIA).
En este nivel, la IA es más inteligente que los seres humanos y si
se le da acceso al mundo exterior, sus acciones serían imparables e
impredecibles.
Debido a esto, usted puede ver fácilmente la imprevisibilidad y el peligro que la Super Inteligencia Artificial trae a la mesa. Es por esto que los expertos ya han comenzado a advertir sobre ello.
En una reciente reunión de la ONU sobre los riesgos globales
emergentes, científicos prominentes, como el físico Max Tegmark
del MIT, y
el fundador del Instituto Oxford del Futuro de la Humanidad, Nick Bostorm, han
arrojado luz sobre los peligros probables de SIA.
La reunión fue concluida por Bostorm indicando con la siguiente advertencia,
En el futuro cercano,
Está claro que la evolución biológica no sería capaz de mantenerse al día con los avances intelectuales de la Súper Inteligencia Artificial (SIA), haciendo de nosotros los humanos, nada más que esclavos.
En conclusión, el advenimiento de la Súper Inteligencia Artificial no está tan lejos si continuamos en nuestro curso para el avance tecnológico.
Debido a que la SIA no tiene que ser creada directamente, podría
surgir de un solo pequeño paso en falso, convirtiendo efectivamente
al mundo en una película 'Terminator' de la vida real...
|