SECCIONES

Siguenos en nuestras redes sociales

logo bajanews

BAJA

NEWS

CALI-BAJA NACIONAL INTERNACIONAL DEPORTES ENTRETENIMIENTO VIDA Y ESTILO POLICIACA CIENCIA Y TECNOLOGÍA BUSINESS

Suscríbete

El peligro de la inteligencia artificial: una amenaza existencial para la humanidad


Foto: Cortesía

Foto: Cortesía

Redacción BajaNewsMx
Editorial bajanews.mx| BajaNews
Publicado: 30-05-2023 12:08:31 PDT

Expertos en IA, incluyendo los líderes de OpenAI y Google DeepMind, alertan sobre la necesidad de priorizar la mitigación del riesgo de extinción global por parte de la inteligencia artificial

"Mitigar el riesgo de extinción a manos de la IA debería ser una prioridad mundial, junto con otros peligros a escala social, como las pandemias y la guerra nuclear", se puede leer en una declaración publicada en la página de internet del Centro para la Seguridad de la IA.

 

El comunicado ha sido apoyado por Sam Altman, director ejecutivo de OpenAI (creador de ChatGPT), y Demis Hassabis, director ejecutivo de Google DeepMind.

 

También fiman otros líderes en el desarrollo de la nueva tecnología como Dario Amodei, de Anthropic, y el doctor Geoffrey Hinton, quien ya había advertido sobre los riesgos de un sistema superinteligente.

 

Uno de ellos es el profesor Yann LeCunn, de la Universidad de Nueva York, quien es considerado junto a Hinton y Yoshua Bengio, profesor de informática de la Universidad de Montreal, como uno de los "padrinos de la IA" por su trabajo pionero en ese campo.

 

Los tres ganaron conjuntamente el premio Turing 2018, que reconoce las contribuciones sobresalientes en ciencias de la computación.

 

Entre quienes creen que los temores de que la IA acabe con la humanidad son poco realistas, y una distracción de cuestiones que ya son un problema como el sesgo en los sistemas, se encuentra Arvind Narayanan, informático de la Universidad de Princeton.

 

"La IA actual no es lo suficientemente capaz como para que estos riesgos se materialicen", aseguró Narayanan en declaraciones a la BBC en marzo pasado.

 

Narayanan agregó que los escenarios catastróficos propios de la ciencia ficción no son realistas y que el problema es que "se ha desviado la atención de los daños a corto plazo de la IA".