¿La aniquilación de la democracia o la nueva era de la Ilustración? Yuval Noah Harari, autor de best-sellers de Sapiens, y el jefe de investigación de Meta, Yann LeCun, debaten para la revista francesa Le Point.
Este es el tema del momento, uno que está en la mente tanto de Xi Jinping como de Joe Biden. El propio Vladimir Putin dijo en 2017 que el país que lideraría el campo de la inteligencia artificial sería el que dominaría el mundo. La historia ha demostrado cuán belicosas eran, por decir lo mínimo, las intenciones del amo del Kremlin, y ahora es imposible ignorar los avances de la inteligencia artificial.
Capaz de facilitar la observación espacial y el desarrollo de nuevos materiales, e incluso permitir representaciones visuales del plegamiento de proteínas y otros avances médicos, así como una imagen más clara de la realidad con la proliferación de imágenes inspiradas en eventos actuales que son más precisas de lo que puede percibir el ojo humano.
Sobre el papel, Yann LeCun y Yuval Noah Harari son completamente opuestos. Uno es investigador, el otro historiador. El primero no ve motivos para entrar en pánico ante el surgimiento de esta disciplina, mientras que el segundo teme que conduzca al colapso de nuestra civilización.
Cabe recordar que recientemente Yuval Noah Harari firmó la carta abierta lanzada por el think tank The Future of Life, junto con cerca de 30.000 investigadores, pidiendo una pausa de seis meses en el desarrollo de herramientas más poderosas que GPT-4 , el modelo de lenguaje que aceleró la adopción de ChatGPT.
El encuentro propuesto por Le Point se ha celebrado por videoconferencia entre Nueva York y Jerusalén. Aquí recopilamos los momentos más destacados del debate.
Le Point : En primer lugar, ¿cuál es su definición de inteligencia?
Yann LeCun: Inteligencia significa ser capaz de percibir una situación, luego planificar una respuesta y luego actuar de manera de lograr un objetivo, por lo tanto, ser capaz de perseguir una situación y planificar una secuencia de acciones.
Yuval Noah Harari: La inteligencia es la capacidad de resolver problemas. Desde organismos unicelulares que buscan comida hasta humanos que descubren cómo volar a la luna, eso es inteligencia. No es lo mismo que la conciencia. En los humanos, se mezclan. La conciencia es la capacidad de sentir cosas, dolor, placer, amor, odio. Nosotros, los humanos, a veces usamos la conciencia para resolver problemas, pero no es un ingrediente esencial. Muchos organismos resuelven problemas sin tener conciencia, como las plantas y los microorganismos. Las máquinas también pueden ser inteligentes y resolver problemas sin tener ningún sentimiento.
Yann LeCun : Todavía no, pero sucederá.
¿Cuándo? ¿Dentro de cinco, diez años?
Yann LeCun : Es muy difícil predecir cuánto tiempo llevará. Pero no hay duda en mi mente de que tendremos máquinas al menos tan inteligentes como los humanos. Y si tienen la capacidad de planificar y establecer metas, también tendrán el equivalente de los sentimientos, porque muy a menudo las emociones son solo una anticipación de los resultados. Debe ser capaz de anticipar lo que sucederá, ya sea que el resultado sea bueno o malo, desea tener la capacidad de planificar, y esa es una de las principales causas de la emoción. Como humanos, si anticipamos que una situación puede ser peligrosa, sentimos miedo, lo que nos motiva a explorar diferentes opciones para escapar de la situación peligrosa. Si las máquinas pueden hacer esto, tendrán emociones.
Yuval Noah Harari: Es posible, pero no inevitable. Defino la conciencia simplemente como la capacidad de tener sentimientos. Una vez que puedes sentir placer, tienes conciencia. La autoconciencia es otra cosa, es la capacidad de reflexionar sobre el hecho de que sientes emoción. Y tenemos conciencia de nosotros mismos sólo una parte muy pequeña del tiempo. Según esta definición, creo que es totalmente posible que las máquinas adquieran conciencia o tengan sentimientos. Pero no es inevitable.
Las máquinas podrían estar progresando a lo largo de un camino evolutivo diferente. En la evolución de los humanos, así como de los mamíferos y las aves, la conciencia y la inteligencia han ido de la mano, solucionamos los problemas teniendo sentimientos.
Pero podría haber otras rutas para la evolución de la inteligencia, en las que tienes un tipo diferente de inteligencia, que podría ser superior a la inteligencia humana y aun así no involucrar ningún sentimiento en absoluto.
Ya es el caso en áreas limitadas como en el ajedrez o en Go. No creo que nadie realmente piense que AlphaGo es feliz cuando gana el juego y, sin embargo, es más inteligente que los humanos en este campo tan limitado. Podría darse el caso, incluso con la inteligencia artificial general, de que nos supere con creces en inteligencia y aún así no sienta ningún tipo de emoción.
¿Diría usted que con su reapropiación del lenguaje, ChatGPT es peligroso para nuestra democracia y creencias?
Yann Le Cun: No creo que sea peligroso en este momento, pero la razón por la que podría serlo es que está cerrado, por lo que la gente no puede entenderlo y los investigadores no pueden investigarlo. En mi opinión, la forma de avanzar con los modelos de lenguaje grande es hacerlo abierto. Y usted ve una serie de esfuerzos en todo el mundo hoy en día para producir evidencia que sea de código abierto. Esta es una buena idea desde el punto de vista económico, pero también desde el punto de vista de la seguridad. Y también por el progreso de la investigación y la comprensión de cómo hacer que esas cosas funcionen correctamente y un buen control dirigible. Pero luego, en el lado de la implementación, necesita regulación para asegurarse de que los productos que se implementan en la sociedad tengan un efecto positivo. Y esto es lo mismo para cualquier tecnología. Lo pones en el mercado, tiene que pasar por algún proceso de certificación y existen regulaciones al respecto. Pero creo que si alguien imagina un futuro en el que todos tengan un agente inteligente bajo su control, es como si todos tuvieran una especie de personal trabajando para ellos que son más inteligentes que ellos. Como ex gerente de la industria y profesor universitario, trato de trabajar solo con personas que son más inteligentes que yo. Así que ese es un buen camino para el éxito.Así que la gente no debería sentirse amenazada por eso , debería sentirse empoderada. De la misma manera que su automóvil es más poderoso que usted, imagine un futuro en el que todos estén empoderados con un equipo de máquinas inteligentes que los haga más eficientes, productivos o creativos. Por eso creo que traerá un nuevo Renacimiento, básicamente una nueva Ilustración.
Yuval Noah Harari:
La pregunta es ¿en manos de quién está? Podría ser potencialmente maravilloso, pero en las manos equivocadas podría destruir la democracia. Porque la democracia es una conversación entre personas, y qué pasa si tienes estos agentes que son capaces de mantener una conversación mejor que cualquier ser humano desplegados al servicio de actores irresponsables o malos…
Si la conversación entre las personas es pirateada o secuestrada, lo que la IA ahora es totalmente capaz de hacer, eso destruiría los cimientos del sistema democrático. Imagina que estás hablando con alguien en línea y no sabes si es un ser humano o un bot de IA. Y así como con las redes sociales hace diez años vimos una carrera armamentista por la atención, ahora podemos ver una carrera armamentista por la intimidad, y la intimidad es mucho más poderosa que la atención.
Si pudiera hacer que alguien confiara en su IA, entonces cualquier pregunta que tenga, no vaya a Google para buscar (esa es la razón por la que Google se siente amenazado), solo pregúntele a su IA. No necesita periódicos porque ‘¿por qué debería leer el periódico, solo le pido a mi IA que me diga qué hay de nuevo?’ Y digamos que, el 95% de las veces, realmente sirve a tus mejores intereses y aprendes a confiar en él y tienes una conexión muy profunda con esta entidad.
Y luego, de vez en cuando, cambia sus puntos de vista políticos en una dirección particular porque esta es la dirección que le dieron las personas que la construyeron y la operaron. Necesitamos protegernos contra estos peligros porque lo que hemos visto anteriormente con los algoritmos de recomendación, no es nada comparado con el poder de tales IA para cambiar la opinión de las personas sobre todo, desde qué productos comprar hasta qué político votar.
Yann LeCun: Otra pregunta es ¿cuál es la forma correcta de manejar esto? En el futuro, todas las personas interactuarán con el mundo digital principalmente a través de agentes inteligentes. La película “Her” es una especie de buena imagen de lo que podría suceder en el futuro.
Y si el diseño de esos sistemas de IA o las personas que los controlan tienen malas intenciones, pueden pasar cosas muy malas. Pero creo que la analogía correcta de ese mundo es Wikipedia. La gente confía en Wikipedia. Hay mucho trabajo editorial que se dedica a tratar de mantener esas opiniones bajo control. Así que hay una manera de hacerlo éticamente, y terminamos con algo como Wikipedia, que fue inventado por millones de personas.
Y lo que eso significa es que los sistemas de inteligencia artificial del futuro básicamente tendrán que ser financiados por miles de millones de personas que trabajen juntas. Esa es la única forma de hacerlo, por lo que tiene que estar abierto. Así que no creo que vayamos a tener sistemas de IA en el futuro que estén cerrados, que sean propiedad de una sola empresa, como hemos visto hasta ahora.
Redacción
En Positivo
Leer más:
Evitar que los malos usen la Inteligencia Artificial para hacer cosas malas. GEOFFREY HINTON
La Inteligencia Artificial cambiará la forma de vivir y amar en el futuro. JEANETTE WINTERSON