domingo, 01 octubre 2023

Salvar a la humanidad de la extinción, según expertos en Inteligencia Artificial

Docenas de líderes de la industria de la IA, académicos e incluso algunas celebridades han solicitado esta semana reducir el riesgo de aniquilación global debido a la inteligencia artificial, argumentando en una breve declaración que la amenaza de un evento de extinción de la IA debería ser una prioridad mundial.

“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, se lee en la declaración publicada por el Centro para la Seguridad de la IA.

La declaración fue firmada por los principales funcionarios de la industria, incluido el director ejecutivo de OpenAI, Sam Altman; el llamado “padrino” de AI, Geoffrey Hinton; altos ejecutivos e investigadores de Google DeepMind y Anthropic; Kevin Scott, director de tecnología de Microsoft; Bruce Schneier, el pionero de la criptografía y la seguridad en Internet; el defensor del clima Bill McKibben; y el músico Grimes, entre otros.

La declaración destaca preocupaciones de amplio alcance sobre el peligro final de la inteligencia artificial sin control.

Los expertos en inteligencia artificial han dicho que la sociedad aún está muy lejos de desarrollar el tipo de inteligencia general artificial que es materia de ciencia ficción; los chatbots de vanguardia de hoy en día reproducen en gran medida patrones basados ​​en datos de entrenamiento que han recibido y no piensan por sí mismos.

Aun así, la avalancha de exageraciones e inversiones en la industria de la IA ha dado lugar a pedidos de regulación al comienzo de la era de la IA, antes de que ocurran contratiempos importantes.

La declaración sigue al éxito viral de ChatGPT de OpenAI, que ha ayudado a intensificar una carrera armamentista en la industria tecnológica por la inteligencia artificial. Cabe recordar que hace apenas unas semanas varios líderes importantes del sector publicaron una carta para paralizar el desarrollo de la tecnología ChatGPT.

Ahora, si bien esta nueva carta publicada no es la primera, es potencialmente la más impactante dada su gama más amplia de signatarios y su principal preocupación existencial, según explica Michael Osborne, profesor de aprendizaje automático en la Universidad de Oxford.

El potencial de AI para exacerbar los riesgos existenciales existentes, como las pandemias diseñadas y las carreras armamentistas militares, son preocupaciones que han llevado a esta declaración conjunta.

Redacción
En Positivo

Leer más:

Evitar que los malos usen la Inteligencia Artificial para hacer cosas malas. GEOFFREY HINTON

Yuval Noah Harari versus Yann Le Cun: debate sobre la inteligencia artificial

Inteligencia Artificial: pausar los experimentos gigantes . Carta abierta de Steve Wozniak, Elon Musk, Yuval Noah Harari y más expertos

Recibe nuestro boletín semanal
con lo más positivo de los medios

Opiniones

Descarga gratuita

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos.
Privacidad