Sam Altman ofreció ayer en el Foro Económico Mundial de Davos una visión amplia y un tanto introspectiva de su psique.
El director ejecutivo de OpenAI ha vivido dos años asombrosos y controvertidos: desde la presentación de ChatGPT al mundo, pasando por una breve destitución de su cargo en la empresa, hasta un pleito con el New York Times por el uso de artículos para entrenar modelos de grandes lenguajes (LLM), es el rostro de una tecnología que, sin exagerar, está cambiando rápidamente el mundo.
Así pues, Davos fue un momento en el que los líderes mundiales, los líderes tecnológicos y el mundo en general pudieron reflexionar, debatir e incluso discutir sobre el camino por el que nos lleva la inteligencia artificial.
Puntos clave
- Sam Altman, director general de OpenAI, habló del profundo impacto de la inteligencia artificial (IA) en la sociedad durante el Foro Económico Mundial de Davos.
- Altman reconoció el aumento de la tensión y el estrés asociados a los avances de la inteligencia general artificial (AGI) y subrayó la necesidad de precaución y preparación.
- Sin embargo, defiende el uso generalizado de la herramienta, expresando optimismo respecto a que los humanos tomen decisiones éticas sobre el uso de la IA y reconozcan sus limitaciones y peligros.
- Los panelistas debatieron sobre la confianza en la IA, el papel evolutivo de los grandes modelos lingüísticos (LLM) y las consideraciones éticas relacionadas con los datos de entrenamiento, especialmente en el pleito de OpenAI con el New York Times.
Al hablar de los avances hacia la inteligencia general artificial (AGI), Altman calificó la progresión de tan consecuente que está pasando factura a todos los implicados:
“Una cosa que he observado durante un tiempo es que cada paso que damos más cerca de una IA muy poderosa, el personaje de todo el mundo gana como 10 puntos de locura.
“Es algo muy estresante, y debería serlo, porque estamos tratando de ser responsables sobre apuestas muy altas.
“A medida que el mundo se acerque a la inteligencia artificial, lo que está en juego, el estrés y el nivel de tensión aumentarán”.
Altman se refirió a esta tensión en respuesta a una pregunta sobre lo que denominó su “ridícula” destitución de la dirección de OpenAI.
“Esto fue un microcosmos de ello, pero… a medida que nos acercamos a la IA muy potente, espero cosas más extrañas. Tener un mayor nivel de preparación, más resiliencia, más tiempo dedicado a pensar en todas las formas extrañas en que las cosas pueden salir mal, eso es realmente importante.”
La cuestión de la seguridad
Altman, que ha estado en el centro del creciente debate en torno a la seguridad de los sistemas de IA para la humanidad, adopta una postura positiva, refiriéndose a la IA generativa en términos relativamente benignos como “un sistema que a veces acierta, a veces es creativo, a menudo se equivoca totalmente; en realidad, no quieres que conduzca tu coche.
“Pero te alegras de que te ayude con una lluvia de ideas sobre qué escribir o te ayude con el código que tienes que comprobar”.
Sostiene que los seres humanos son capaces de tomar las decisiones correctas sobre el uso ético de la IA:
“People understand the tools and the limitations of the tools more than we often give them credit for, and people have found ways to make ChatGPT useful to them and understand why not to use it”.
Incluso con el desarrollo de modelos avanzados de IA, los humanos “tomarán decisiones sobre lo que debería ocurrir en el mundo… El estilo de modelo OpenAI es bueno para algunas cosas, pero no para una situación de vida o muerte“.
“Ahora hay una cuestión más difícil que la técnica, que es quién decide cuáles son esos valores -cuáles son los valores por defecto, cuáles son los límites- y cómo funciona en este país frente a aquel.
“¿Qué puedo hacer con él y qué no? Es una de las grandes cuestiones sociales.
“Creo que una muy buena señal de esta nueva herramienta es que, incluso con su capacidad actual muy limitada y sus profundos defectos, la gente está encontrando formas de utilizarla para obtener grandes ganancias de productividad -u otros beneficios- y comprender las limitaciones.
“La IA se ha desmitificado un poco porque la gente la usa ahora, y creo que esa es siempre la mejor manera de hacer avanzar al mundo con una nueva tecnología”.
En respuesta a la preocupación sobre hasta qué punto la IA podría sustituir las tareas humanas, Altman señaló que: “Esta vez parece diferente. La cognición de propósito general se siente tan cercana a lo que todos atesoramos sobre la humanidad”.
Y sin embargo, “a los humanos nos importa mucho lo que piensan otros humanos. Eso parece estar muy arraigado en nosotros”.
En el mismo panel de Davos, Marc Benioff, Consejero Delegado de Salesforce, dijo que la tecnología de la IA no está en el punto de sustituir a los seres humanos, sino de aumentarlos. Sin embargo, se mostró cauto sobre el futuro de la tecnología:
“Sólo queremos asegurarnos de que la gente no salga herida. No queremos que algo vaya realmente mal… Hemos visto a la tecnología ir realmente mal y vimos Hiroshima… no queremos ver una Hiroshima de IA, queremos asegurarnos de que tenemos la cabeza en esto ahora.
“Por eso creo que estas conversaciones y esta gobernanza, y tener claro cuáles son nuestros valores fundamentales, son tan importantes. Sí, nuestros clientes van a obtener más margen -los directores ejecutivos van a estar muy contentos-, pero al final tenemos que hacerlo con los valores correctos”.
¿Podemos confiar en los grandes modelos lingüísticos?
Benioff añadió que el rápido desarrollo de las capacidades de la IA está planteando cuestiones de confianza.
“La confianza asciende rápidamente en la jerarquía: vamos a tener médicos digitales, personas digitales, y estas personas digitales se van a fusionar, y va a tener que haber un nivel de confianza.
“Estamos en este momento de umbral porque todos estamos utilizando los productos de Sam y otros productos y decimos ‘¡Vaya! Estamos teniendo una experiencia increíble con la IA, nunca antes habíamos tenido este tipo de interactividad, pero todavía no confiamos en ella.
“También tenemos que dirigirnos a esos reguladores y decirles que si nos fijamos en las redes sociales durante la última década, son bastante malas: no queremos eso en nuestra industria de la IA, queremos tener una buena asociación saludable con estos reguladores”.
El director general de Intel, Pat Gelsinger, en una entrevista en la CNBC en Davos, dijo: Hemos llegado al final de la utilidad actual de la IA. Creo que la próxima fase de la IA consistirá en incorporar la corrección formal a los modelos subyacentes.
Ciertos problemas están bien resueltos hoy en la IA, pero hay muchos problemas que no lo están.
¿Cómo se demuestra que un gran modelo lingüístico (LLM) es realmente correcto? Hoy en día hay muchos errores.
“Todavía necesitas saber, esencialmente, “estoy mejorando la productividad de un trabajador del conocimiento”. Pero al fin y al cabo, necesito que el trabajador del conocimiento diga si es correcto”.
Clara Shih, directora general de Salesforce AI, dijo a la CNBC que la mejor forma de mejorar la precisión de los LLM es mediante la experimentación y las pruebas de copilotaje.
Los sistemas de IA pueden ajustarse a medida que los usuarios se sientan cómodos con que se pueda confiar en la tecnología en escenarios de alto riesgo.
Shih dijo que tres fases de la AGI guiarán la adopción:
- Utilizar activamente la tecnología como asistente de trabajo
- Observar la tecnología en modo piloto automático para garantizar su precisión;
- Por último, confiar en que la tecnología funcione como debe.
“Puedes decirle a la IA que sea conservadora para apuestas más altas hasta que un copiloto humano la gradúe esencialmente en piloto automático”, dijo Shih.
“Podría salir muy mal”.
Volvamos a Altman en Davos, quien -incluso como optimista de la IA- admite que los agoreros que advierten del daño potencial que la IA podría causar a la humanidad no tienen “garantizado que se equivoquen”.
“Hay una parte de razón, y es que se trata de una tecnología claramente muy poderosa, y no sabemos -no podemos decirlo con certeza- qué va a ocurrir exactamente.
“Eso ocurre con todas las nuevas grandes revoluciones tecnológicas, pero es fácil imaginar con ésta que va a tener efectos masivos en el mundo y que podría salir muy mal.
“No tener precaución, no sentir la gravedad de lo que está en juego, sería muy malo, así que me gusta que la gente esté nerviosa.
Sobre el equipo de OpenAI, afirma: “Tenemos nuestros propios nervios, pero creemos que podemos superarlos”.
La única forma de hacerlo es poner la tecnología en manos de la gente, dejar que la sociedad o la tecnología coevolucionen y, paso a paso, con un circuito de retroalimentación muy estrecho y corrección del rumbo, construir estos sistemas que aportan un enorme valor al tiempo que cumplen los requisitos de seguridad”.
“La dirección tecnológica que hemos intentado tomar es la que creemos que podemos hacer segura, y eso incluye muchas cosas.
“Creemos en el despliegue iterativo, de modo que pongamos esta tecnología en el mundo a lo largo del camino, para que la gente se acostumbre a ella, para que tengamos tiempo como sociedad -nuestras instituciones tienen tiempo- para tener estos debates para averiguar cómo regular esto, y cómo poner algunos guardarraíles en su lugar.
“Es bueno que la gente tenga miedo de los aspectos negativos de esta tecnología, es bueno que hablemos de ello, es bueno que a nosotros y a otros se nos exija mucho.
“Podemos aprender muchas lecciones del pasado sobre cómo se ha hecho que la tecnología sea segura y también sobre cómo las distintas partes interesadas de la sociedad han llevado sus negociaciones sobre lo que significa seguro y lo que es suficientemente seguro.
“Pero siento mucha empatía por el nerviosismo general y la incomodidad del mundo hacia empresas como nosotros y las demás personas que hacen cosas similares.
“Depende de nosotros encontrar la manera de conseguir la aportación de la sociedad sobre cómo vamos a tomar estas decisiones, no sólo sobre cuáles son los valores del sistema, sino sobre cuáles son los umbrales de seguridad y qué tipo de coordinación global necesitamos para garantizar que lo que ocurre en un país no repercute negativamente en otro”.
OpenAI contra el New York Times: La ética de la gestión de contenidos formativos
Uno de los aspectos de la IA generativa que requerirá nuevos enfoques es la compensación a los propietarios de contenidos por utilizar sus contenidos en los datos de entrenamiento, dijo Altman en el panel de Davos.
El New York Times ha demandado a OpenAI y Microsoft, alegando que copiaron millones de artículos del Times para entrenar los grandes modelos lingüísticos que utilizan ChatGPT y Microsoft Copilot. La demanda afirma que estos modelos “amenazan el periodismo de alta calidad” al afectar a la capacidad de los medios de comunicación para proteger y monetizar sus contenidos.
“Hay una gran necesidad de nuevos modelos económicos”, dijo Altman. “Creo que la conversación actual se centra un poco en el nivel equivocado, y creo que lo que significa formar estos modelos va a cambiar mucho en los próximos años”.
Altman dijo que lo que OpenAI pretende hacer con los datos del New York Times y otros editores es enlazar con ellos como fuentes de información en tiempo real en respuesta a las consultas de los usuarios, en lugar de utilizarlos para entrenar el modelo.
“También podríamos entrenar el modelo con ellos, pero… nos parece bien no hacerlo con ningún [proveedor] concreto. Pero si no entrenas con ningún dato, no tienes ningún hecho [con el que entrenar el modelo]”, añadió Altman.
OpenAI esperaba entrenarse con los datos de Times, “pero no es nuestra prioridad; en realidad, no necesitamos entrenarnos con sus datos”, dijo Altman. “Esto es algo que la gente no entiende: una fuente de entrenamiento concreta no nos mueve mucho la aguja”.
Altman sugiere que la próxima etapa de desarrollo de los LLM será la capacidad de razonar sobre conjuntos de datos más pequeños y de alta calidad.
“Lo siguiente que espero que empiece a cambiar es que estos modelos sean capaces de tomar cantidades más pequeñas de datos de mayor calidad durante su proceso de entrenamiento y reflexionar más sobre ellos y aprender más… A medida que nuestros modelos empiecen a funcionar más de esa manera, no necesitaremos las mismas cantidades masivas de datos de entrenamiento”.
“Pero lo que queremos en cualquier caso es encontrar nuevos modelos económicos que funcionen para todo el mundo, incluidos los propietarios de contenidos.
“Creo que está claro que si lees un libro de texto sobre física, luego vas a hacer física con lo que has aprendido, y eso se considera correcto.
“Si vamos a enseñar física a otra persona utilizando tu libro de texto y utilizando tus planes de clase, nos gustaría encontrar una forma de que te paguen por ello.
“Si enseñas a nuestros modelos, si ayudas a proporcionar retroalimentación humana, me encantaría encontrar nuevos modelos para que te paguen en función del éxito de eso”.
Lo esencial
La historia está plagada de errores humanos, inocentes o malintencionados, que dan unos pasos hacia delante y otros hacia atrás en la búsqueda de la seguridad, la libertad, la oportunidad y la curiosidad.
Independientemente de que la IA encuentre una forma de sensibilidad, su versión mimetizada de la inteligencia ya está transformando masivamente el mundo, y lo ha conseguido en menos de 18 meses desde que el público pudo utilizarla con cierta escala.
En algunos lugares, ya estamos bastante contentos de ceder el control a la IA, o al menos de buscar y seguir sus consejos.
Pero tenemos mucho que considerar y una ventana limitada para hacerlo.
Mientras los líderes mundiales discuten y debaten en Davos sobre el genio que está saliendo de la caja, una cosa es segura: Cuando vuelvan a reunirse el año que viene, parecerá que ha pasado una década en el panorama de la IA.