En su famosa obra “Yo, Robot” Isaac Asimov retrataba unas máquinas capaces de llevar a cabo muy diversas tareas, y que a menudo se plantean a sí mismos problemas de ‘conducta humana’. Existe un escenario de armonía entre robots y humanos pero puede romperse. Este libro de ciencia ficción que fue publicado en 1950 y otras obras similares sorprenden por lo adelantadas en el tiempo al advertir el peligro de una rebelión de unas máquinas que están dotadas de inteligencia artificial y se rebelan contra sus creadores, el género humano.
Hoy nos encontramos en un escenario en que todos esos dilemas éticos entre máquinas y humanos ya se están dando. El miedo a que las máquinas puedan devorar al ser humano es real e incluso recibe el nombre del Síndrome de Frankenstein sobre el temor de que las mismas máquinas utilizadas por el ser humano para controlar la naturaleza se vuelvan contra nosotros, destruyendo a la humanidad.
No es casual que en los últimos meses los expertos en la materia y en un ejercicio de honestidad estén exigiendo la regulación de la Inteligencia Artificial y la necesidad de establecer unos límites para no llegar a un escenario indeseado.
Los primeros en tener una repercusión sobresaliente fueron los más de 1.000 líderes tecnológicos, investigadores y otros firmantes de una carta abierta instando a una moratoria en el desarrollo de los sistemas de inteligencia artificial más poderosos. Entre esas personalidades están Elon Musk, CEO de SpaceX, Tesla y Twitter, Steve Wozniak, cofundador de Apple; Andrew Yang, empresario y candidato presidencial de 2020; y Yuval Noah Harari , autor y profesor de la Universidad Hebrea de Jerusalén.
Tal y como exigían en la misiva “La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”.
Igualmente hace apenas unas semanas docenas de líderes de la industria de la IA, académicos e incluso algunas celebridades solicitaban reducir el riesgo de aniquilación global debido a la inteligencia artificial, argumentando en una breve declaración que la amenaza de un evento de extinción de la IA debería ser una prioridad mundial.
En noviembre de 2021, los 193 Estados miembros de la Conferencia General de la UNESCO adoptaron la Recomendación sobre la Ética de la Inteligencia Artificial, el primer instrumento normativo mundial sobre el tema. En el mismo explicitaban que no solo protegerá, sino que también promoverá los derechos humanos y la dignidad humana, y será una brújula guía ética y una base normativa global que permitirá construir un sólido respeto por el estado de derecho en el mundo digital.
Si bien el adoptar unas recomendaciones es un paso positivo, en la medida en que se están desarrollando los acontecimientos ahora es más necesario un marco regulatorio que fije unas obligaciones a los estados y compañías.
La ética debe ser el eje central en la toma de decisiones responsables y esto implicaría la adopción de medidas tales como: contratar a un oficial de ética de IA en las compañías, establecer un comité de ética para sopesar y decidir cuestiones difíciles, elaborar listas de verificación de ética de datos y exigir que los científicos de datos de primera línea las completen, realización de inspecciones de impacto algorítmicas del tipo que ya se usa en la gobernanza ambiental y de privacidad.
Esta semana la Eurocámara ha aprobado negociar la primera ley sobre inteligencia artificial del mundo. Las discusiones para aprobar un texto definitivo con los Veintisiete comenzarán de inmediato, para que la ley esté lista para entrar en vigor como tarde en 2026.
La Eurocámara quiere prohibir también los “usos intrusivos y discriminatorios de la IA”, especialmente los sistemas de identificación biométrica remota, la categorización basada en características sensibles como el género, raza, etnia, religión u orientación política). También prevé vetar la vigilancia policial predictiva para evaluar el riesgo de una persona o grupo de personas de cometer un delito u ofensa (basados en el perfil, la localización de dichas personas o en su pasado criminal), así como los sistemas de reconocimiento de emociones por ejemplo por parte de la policía, agentes de fronteras o en lugares de trabajo y escuelas.
Los eurodiputados han añadido capas extra de seguridad y transparencia de uso a los modelos de ChatGPT. La ley crea categorías que van desde el riesgo “inaceptable” (prohibidas por la legislación) a otras menores que son aceptadas, aunque sometidas a rigurosos controles.
Sin duda esta es una buena noticia para mantener nuestro ecosistema en equilibrio y adelantarse al desarrollo de nuevas amenazas. En el trasfondo de estas regulaciones está el mantener el control de las tecnologías para que siempre prevalezca la jerarquía del ser humano sobre la máquina.
JORGE DOBNER
Editor
En Positivo
Leer más: