Fiabilidad

¿Cambiará Meta la generación de código basada en inteligencia artificial con Code Llama?

Resumen

Code Llama de Meta ofrece a los desarrolladores de software la posibilidad de generar y explicar código para agilizar sus flujos de trabajo cotidianos y crear aplicaciones de nueva generación.

La carrera armamentística de la IA generativa no muestra signos de desaceleración. Apenas unas semanas después de presentar Llama 2, el gran modelo de lenguaje (LLM) de código abierto, Meta ha anunciado el lanzamiento de Code Llama.

¿Qué es Code Llama?

Code Llama es una versión perfeccionada de Llama 2, entrenada en un conjunto de datos con 500.000 millones de tokens de código y datos relacionados con el código. Es capaz de generar código en varios lenguajes de programación, como Python, Java, Java Script, C# y Bash.

Como señala la entrada del blog del anuncio, lo que diferencia a Code Llama de Llama 2 es que “es una versión especializada en código de Llama 2 que se creó entrenando más a Llama 2 en sus conjuntos de datos específicos de código, muestreando más datos de ese mismo conjunto de datos durante más tiempo”.

El LLM está disponible tanto para investigación como para uso comercial y admite parámetros de hasta 7B, 13B y 34B.

¿Para qué puede utilizarse Code Llama?

Desde una perspectiva descendente, Code Llama no sólo puede utilizarse para generar código, sino también para explicarlo en lenguaje natural. Por ejemplo, un usuario puede indicar a la solución que escriba una función que produzca la secuencia de Fibonacci.

La capacidad de Code Llama para generar y explicar código significa que puede actuar como herramienta educativa para desarrolladores de software, desempeñando el papel de copiloto virtual o asistente de codificación. Esto es especialmente útil para los nuevos desarrolladores que puedan necesitar ayuda para identificar errores y depurar código o ver lo que hace el código existente.

Sin embargo, la verdadera utilidad de Code Llamas reside en su capacidad para ayudar a crear aplicaciones y sitios web inteligentes. “Code Llama será esencial para la próxima generación de aplicaciones inteligentes capaces de entender el lenguaje natural”, declaró a Techopedia Adrien Treuille, director de gestión de productos y responsable de Streamlit en Snowflake.

“Un modelo como Code Llama puede utilizarse para impulsar experiencias de codificación aceleradas por LLM de próxima generación, como la finalización automática de código -en la que el modelo adivina lo que el ingeniero o analista escribirá a continuación- y experiencias de copiloto -en las que el modelo se utiliza en un chatbot para ayudar a ingenieros o analistas a traducir problemas empresariales de lenguaje natural en código.”

Además, Treuille destaca que Code Llama también podría integrarse en las aplicaciones empresariales, dándoles la capacidad de generar y ejecutar automáticamente fragmentos de código basados en indicaciones de lenguaje natural.

Hablemos de rendimiento

Hasta el momento, Code Llama también se ha mostrado prometedor en términos de rendimiento. Los propios estudios de Meta sugieren que Code Llama alcanza un “rendimiento de vanguardia” entre los modelos abiertos en múltiples puntos de referencia de código, logrando un 53% en HumanEval y un 55% en MBPP.

Además, Code LLama no sólo supera a LLama 2 en estos benchmarks, sino que también supera a GPT-3.5 en ambas pruebas.

Del mismo modo, una prueba independiente realizada por Snowflake también descubrió que Code Llama supera a los modelos Llama 2 en un 11-30% en tareas de texto a SQL. Este estudio también descubrió que se aproxima al nivel de rendimiento de GPT-4 en tareas de texto a SQL, quedando por detrás en sólo un 6% de puntos de precisión.

Aunque GPT-4 supera a Code Llama en HumanEval de forma inmediata, un estudio realizado por la empresa de IA Phind descubrió que las versiones mejoradas de Code Llama-34B y Code Llama-34-B-Python podían superar a GPT-4 en esta área.

En este ejercicio, los investigadores proporcionaron a cada modelo 80.000 tareas y soluciones de programación y descubrieron que Code Llama-34B y Code Llama-34-B Python alcanzaban una precisión del 67,6% y el 69,5% en 80.000 tareas y soluciones de programación, frente al 67% de GPT4.

Profundizar en el ecosistema de código abierto

Por encima de todo, estos estudios indican que la brecha entre los LLM propietarios y los de código abierto se está cerrando. Con los datos de formación y el ajuste adecuados, los desarrolladores pueden utilizar herramientas como Code Llama como alternativa viable a las herramientas de código cerrado como GPT-4.

David Strauss, cofundador y director técnico del proveedor de operaciones web Pantheon, declaró a Techopedia:

“Estamos asistiendo a la aparición de un panorama competitivo estándar y alentador. Las implementaciones líderes (GitHub Copilot, presumiblemente construida sobre GPT de OpenAI) se inclinan hacia lo propietario, mientras que los entrantes emergentes (Llama de Meta) persiguen una estrategia más basada en estándares y abierta.”

El éxito de las herramientas de código abierto es vital para democratizar el desarrollo de la IA, ya que si se permite que modelos opacos de IA de caja negra dominen el mercado, el avance de esta tecnología en su conjunto permanecerá aislado entre un puñado de proveedores”.

Añadió Strauss:

“Esto es bueno para el sector en su conjunto, porque significa que no hay ningún actor vulnerable a la incertidumbre sobre la propiedad intelectual, ni ningún actor puede permitirse dejar de mejorar. Los ingenieros y las empresas pueden tener ahora más confianza a la hora de incorporar herramientas de IA a su proceso de desarrollo.”

La IA de código abierto puede competir

En esta fase, Code Llama es una mejora bienvenida de Llama 2 en el mundo de la generación de código y desbloquea algunos casos de uso nuevos e interesantes para mejorar los flujos de trabajo de desarrollo de software.

Sus primeros indicadores de rendimiento demuestran que las soluciones de IA de código abierto son una fuerza a tener en cuenta y ponen de relieve que los desarrolladores no tienen por qué depender de los LLM de caja negra para desarrollar aplicaciones de nueva generación.

Temas relacionados

Tim Keary
Editor

Desde enero de 2017, Tim Keary ha sido un escritor y reportero de tecnología independiente que cubre tecnología empresarial y ciberseguridad.