En los últimos meses el debate sobre la Inteligencia Artificial (IA) ha entrado de lleno en la sociedad. Sin embargo la IA sigue siendo un concepto bastante lejano y desconocido para el común de los mortales y el debate ha sido capitalizado por los expertos que conocen de primera mano los riesgos que puede causar esta tecnología.
Recordamos que en los últimos meses y semanas varias cartas firmadas por los expertos más reconocidos a nivel internacional han advertido de la necesidad de parar el desarrollo de la IA y establecer unos límites.
Bien es cierto que la IA está mejorando muchos aspectos de nuestras vidas. Pero la velocidad de la innovación en IA podría plantear nuevos riesgos, lo que crea incertidumbre y genera preocupaciones públicas.
Estos días el Parlamento Europeo ha aprobado por amplia mayoría su posición final sobre la Ley de Inteligencia Artificial (IA), con lo que se abre la puerta a que comiencen de inmediato las discusiones con los Estados de la UE y la Comisión, los denominados trílogos.
Bajo este contexto diversos miembros del Laboratorio Europeo para el Aprendizaje y los Sistemas Inteligentes (ELLIS), una organización de investigación centrada en el aprendizaje automático, consideran en un artículo de opinión para The Conversation que se debe poner estos riesgos en perspectiva.
La IA es una disciplina dentro de la informática o la ingeniería que tomó forma en la década de 1950. Aspira a construir sistemas computacionales inteligentes que emulen la inteligencia humana, ya de por sí diversa y compleja.
Los sistemas de IA suelen dividirse en tres niveles de competencia:
- La IA específica o débil, que engloba sistemas de IA capaces de realizar tareas específicas o resolver problemas concretos, con un nivel de rendimiento hoy en día superior al de los humanos. Todos los sistemas de IA actuales son IA específica: los chatbots como chatGPT, los asistentes de voz como Siri y Alexa, los sistemas de reconocimiento de imágenes y los algoritmos de recomendación.
- La IA general o fuerte, que muestra un nivel de inteligencia similar al de los seres humanos, incluida la capacidad de comprender, aprender y aplicar conocimientos en una amplia gama de tareas. Incorpora conceptos como la conciencia. La IA general es en gran medida hipotética y no se ha logrado hasta la fecha.
- Súper IA, que se refiere a sistemas de IA con una inteligencia superior a la humana en todas las tareas. Por definición, somos incapaces de entender este tipo de inteligencia del mismo modo que una hormiga no es capaz de entender la nuestra. La súper IA es un concepto aún más especulativo que la IA general.
La Inteligencia Artificial es una disciplina transversal que puede aplicarse a cualquier campo, desde la educación al transporte, la sanidad, el derecho o la manufactura. Por tanto, está cambiando profundamente todos los aspectos de la sociedad.
Incluso en su forma de “IA específica”, tiene un importante potencial para generar un crecimiento económico sostenible y ayudarnos a afrontar los retos más acuciantes del siglo XXI, como el cambio climático, las pandemias y la desigualdad.
Desafíos que plantean los sistemas de IA actuales
La adopción durante la última década de sistemas de toma de decisiones basados en IA en una amplia gama de áreas –desde las redes sociales hasta el mercado laboral– también plantea importantes riesgos y retos sociales que es necesario comprender y abordar.
La escala y velocidad sin precedentes con que los modelos preentrenados de IA generativa (GPT) han sido adoptados por cientos de millones de personas en todo el mundo está sometiendo a nuestros sistemas sociales y reguladores a una tensión cada vez mayor.
Es evidente que la Inteligencia Artificial plantea importantes retos que deberían ser nuestra prioridad, incluyendo:
- La manipulación del comportamiento humano por algoritmos de IA con consecuencias sociales potencialmente devastadoras en la difusión de información falsa, la formación de opiniones públicas y los resultados de los procesos democráticos.
- Los sesgos y la discriminación algorítmicos que no sólo perpetúan sino que exacerban los estereotipos, los patrones de discriminación o incluso la opresión.
- La falta de transparencia tanto en los modelos como en sus usos.
- La violación de la privacidad y el uso de cantidades masivas de datos de entrenamiento sin consentimiento ni compensación para sus creadores.
- La explotación de los trabajadores que anotan, entrenan y corrigen los sistemas de IA, muchos de ellos ubicados en países en desarrollo con salarios miserables.
- La enorme huella de carbono de los grandes centros de datos y redes neuronales que se necesitan para construir estos sistemas de IA.
- La falta de veracidad de los sistemas de IA generativa que inventan contenidos creíbles (imágenes, textos, audios, vídeos…) sin correspondencia con el mundo real.
- La fragilidad de estos grandes modelos que pueden cometer errores y ser engañados.
- La profunda transformación del mercado laboral con el consecuente desplazamiento de empleos y profesiones.
- La concentración de poder en manos de un oligopolio de quienes controlan hoy los sistemas de IA.
¿Es realmente la IA un riesgo existencial para la humanidad?
Por desgracia, en lugar de centrarse en estos riesgos tangibles, la conversación pública –sobre todo las recientes cartas abiertas– se ha centrado principalmente en un hipotético riesgo existencial de la IA.
Un riesgo existencial es un acontecimiento o escenario potencial que representa una amenaza para la existencia continuada de la humanidad, con consecuencias que podrían dañar o destruir irreversiblemente la civilización humana y, por tanto, llevar a la extinción de nuestra especie. Un acontecimiento catastrófico global (por ejemplo, el impacto de un asteroide o una pandemia), la destrucción de un planeta habitable (debido, por ejemplo, al cambio climático, la deforestación o el agotamiento de recursos críticos como el agua y el aire limpio) o una guerra nuclear mundial son ejemplos de riesgos existenciales.
No cabe duda de que nuestra existencia no está exenta de riesgos y de que la evolución futura es difícil de predecir. Ante esta incertidumbre, debemos priorizar nuestros esfuerzos.
La remota posibilidad de una súper inteligencia incontrolada debe considerarse en su contexto, y esto incluye el contexto de 3 600 millones de personas en el mundo que son altamente vulnerables debido al cambio climático; los aproximadamente 1 000 millones de personas que viven con menos de 1 dólar al día; o los 2 000 millones de personas afectadas por la guerra, los conflictos y la fragilidad. Se trata de seres humanos reales cuyas vidas corren grave peligro hoy en día, sin que ninguna súper IA intervenga.
Centrarse en un hipotético riesgo existencial desvía nuestra atención de los graves retos documentados que la IA plantea en la actualidad y contribuye a generar un pánico innecesario en la población.
Matizar estas cuestiones, y diseñar soluciones concretas y coordinadas que permitan actuar para afrontar los retos actuales reales de la IA, incluyendo la regulación, es fundamental.
Abordar estos retos requiere la colaboración y participación de los sectores más afectados de la sociedad, junto con los necesarios conocimientos técnicos y de gobernanza. Es hora de actuar con ambición, sabiduría y en cooperación.
NURIA OLIVER
Directora de la Fundación ELLIS Alicante y profesora honoraria de la Universidad de Alicante, Universidad de Alicante
BERNHARD SCHOLKOPF
Max Planck Institute of Animal Behavior
FLORENCE D’ALCHÉ-BUC
Chair professor, Télécom Paris – Institut Mines-Télécom
NADA LAVRAC
PhD, Research Councillor at Department of Knowledge Technologies, Jožef Stefan Institute and Professor, University of Nova Gorica
NICOLO CESA-BIANCHI
Professor, University of Milan
SEPP HOCHREITER
Johannes Kepler University Linz
SERGE BELONGIE
Professor, University of Copenhagen
Redacción
En Positivo
Leer más:
La jerarquía del ser humano sobre la máquina. JORGE DOBNER
Salvar a la humanidad de la extinción, según expertos en Inteligencia Artificial
Evitar que los malos usen la Inteligencia Artificial para hacer cosas malas. GEOFFREY HINTON