sábado, febrero 24

Una ‘catástrofe existencial’ puede surgir ya que no hay pruebas de que la IA sea controlable: experto

0

La inteligencia artificial (IA) tiene el potencial de causar una “catástrofe existencial” para la humanidad, advirtió un investigador.

Roman Yampolskiy, profesor asociado de ingeniería informática y ciencias en la Escuela de Ingeniería Speed de la Universidad de Louisville, ha realizado una extensa revisión de la literatura científica relevante y afirmó que no ha encontrado ninguna prueba de que la IA pueda controlarse. E incluso si se introducen algunos controles parciales, probablemente serán insuficientes, sostiene.

Por ello, el investigador opina que la IA no debería desarrollarse sin estas pruebas. A pesar de que la IA puede ser uno de los problemas más importantes que enfrenta la humanidad, la tecnología sigue siendo poco comprendida, mal definida y poco investigada, según Yampolskiy, experto en seguridad de la IA.

El próximo libro del investigador, AI: Unexplainable, Unpredictable, Uncontrollable, explora las formas en que la IA tiene el potencial de remodelar dramáticamente la sociedad, tal vez no siempre para nuestra ventaja.

“Nos enfrentamos a un evento casi garantizado con potencial para causar una catástrofe existencial. No es de extrañar que muchos consideren que este es el problema más importante que la humanidad haya enfrentado jamás. El resultado podría ser prosperidad o extinción, y el destino del universo está en juego. “, dijo Yampolski en un comunicado de prensa.

Continuó: “¿Por qué tantos investigadores suponen que el problema del control de la IA tiene solución? Hasta donde sabemos, no hay evidencia de eso, no hay pruebas. Antes de embarcarnos en una búsqueda para construir una IA controlada, es importante demostrar que el problema tiene solución. Esto, combinado con las estadísticas que muestran que el desarrollo de la superinteligencia de IA es un evento casi garantizado, muestra que deberíamos apoyar un importante esfuerzo de seguridad de la IA”.

Yampolskiy sostiene que nuestra capacidad para producir software inteligente supera con creces nuestra capacidad para controlarlo o incluso verificarlo. A la luz de su extensa revisión de la literatura, el investigador dijo que los sistemas avanzados de IA nunca pueden ser completamente controlables y siempre presentarán cierto nivel de riesgo, a pesar de los beneficios que puedan brindar.

En su opinión, la comunidad de IA debería centrarse en minimizar dichos riesgos y al mismo tiempo intentar maximizar los beneficios potenciales.

“Si nos acostumbramos a aceptar las respuestas de la IA sin una explicación, tratándola esencialmente como un sistema Oracle, no podremos saber si comienza a dar respuestas incorrectas. Este es un breve resumen.

Share.

Comments are closed.