jueves, 28 septiembre 2023
GEOFFREY HINTON

Evitar que los malos usen la Inteligencia Artificial para hacer cosas malas. GEOFFREY HINTON

Sigue habiendo decisiones tras el revuelo por la carta abierta de más de 1000 líderes tecnológicos, investigadores y otros instando a una moratoria en el desarrollo de los sistemas de inteligencia artificial más poderosos.

Diferentes actores principales involucrados en la nueva tecnología y desarrollo de Inteligencia Artificial están tomando posiciones respecto al uso responsable de esta tecnología.

Uno de los últimos en posicionarse es el informático británico Geoffrey Hinton, quien junto con otros dos llamados “Padrinos de la IA” ganó el Premio Turing 2018 por su trabajo fundamental que condujo al auge actual de la inteligencia artificial.

Ahora el pionero de 75 años dice que lamenta el trabajo al que ha dedicado su vida debido a cómo la IA podría ser mal utilizada. Hinton renunció recientemente a su trabajo en Google para hablar libremente sobre los riesgos de la IA.

“Es difícil ver cómo se puede evitar que los malos actores lo usen para hacer cosas malas”, dijo Hinton al New York Times en una entrevista en referencia al uso dañino de la IA. “Me consuelo con la excusa normal: si no lo hubiera hecho yo, lo habría hecho otro”.

El académico se unió a Google en 2013 después de que adquirió una empresa iniciada por el mismo Hinton y dos de sus estudiantes, uno de los cuales se convirtió en científico jefe de OpenAI. Hinton y sus alumnos habían desarrollado una red neuronal que aprendió a identificar objetos comunes como perros, gatos y flores después de analizar miles de fotos. Es este trabajo el que finalmente condujo a la creación de ChatGPT y Google Bard.

Las preocupaciones en torno al uso indebido de la IA ya se han hecho realidad. Imágenes falsas de personajes y políticos proliferan por las redes simulando hechos que nunca ocurrieron. Dice Hinton que en un mundo con tantas imágenes y textos falsos ya nadie podrá decir “lo que es verdad”.

La difusión de información errónea es solo la preocupación inmediata de Hinton. En una línea de tiempo más larga, le preocupa que la IA elimine los trabajos rutinarios y posiblemente la humanidad misma a medida que la IA comience a escribir y ejecutar su propio código. Es decir que los seres humanos sean devorados por la misma tecnología que ellos crearon.

“La idea de que estas cosas podrían volverse más inteligentes que las personas, algunas personas lo creían”, advierte Hinton al NYT. “Pero la mayoría de la gente pensó que estaba muy lejos. Y yo pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”.

Sorprendido por las capacidades de los nuevos modelos de lenguaje grande como GPT-4, Hinton quiere crear conciencia pública sobre los graves riesgos que ahora cree que pueden acompañar a la tecnología que introdujo.

“Nuestros cerebros tienen 100 billones de conexiones”, explica Hinton. “Los modelos de lenguaje grande tienen hasta medio billón, un billón como máximo. Sin embargo, GPT-4 sabe cientos de veces más que cualquier persona. Así que tal vez en realidad tenga un algoritmo de aprendizaje mucho mejor que el nuestro” sentencia.

GEOFFREY HINTON
Es un informático británico. Hinton fue galardonado con el Premio Turing en 2018 junto con Yoshua Bengio y Yann LeCun por su trabajo en deep learning.​

Redacción
En Positivo

Leer más:

Delimitar el poder de la Inteligencia Artificial para evitar que suplante al ser humano. YUVAL NOAH HARARI

Inteligencia Artificial: pausar los experimentos gigantes . Carta abierta de Steve Wozniak, Elon Musk, Yuval Noah Harari y más expertos

“La Inteligencia Artificial es la tecnología más profunda que la humanidad jamás desarrollará”. SUNDAR PICHAI

Recibe nuestro boletín semanal
con lo más positivo de los medios

Opiniones

Descarga gratuita

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos.
Privacidad