Todo empezó en diciembre de 2023, cuando Liquid AI, una empresa derivada del MIT cofundada por un cuarteto de científicos del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT, recaudó 46,6 millones de dólares para el desarrollo de redes neuronales líquidas, modelos de IA mucho más pequeños pero potencialmente no menos capaces que requieren mucha menos potencia de cálculo para funcionar.
Un año después, en diciembre de 2024, la startup de IA que ofrece una arquitectura de IA fundamentalmente diferente recaudó 250 millones de dólares en una ronda de financiación inicial liderada por Advanced Micro Devices (AMD).
Con la llegada de más inversiones, ¿cumplirá Liquid su misión de “construir el sistema de IA más capaz y eficiente a cualquier escala” en 2025?
Conclusiones clave
- Liquid AI se centra en redes neuronales líquidas adaptables que requieren menos potencia computacional que la IA tradicional.
- La empresa recaudó 297 millones de dólares en financiación, incluidos 250 millones de dólares liderados por AMD, y está valorada en 2300 millones de dólares.
- Los modelos de base líquida (LFM), como el recién lanzado LFM-7B, ofrecen un rendimiento avanzado con un uso mínimo de memoria y adaptabilidad en tiempo real.
- LFM-7B admite chat empresarial, codificación y seguimiento de instrucciones, a la vez que destaca en aplicaciones de IA en el dispositivo con eficiencia energética.
- Liquid AI hace hincapié en la accesibilidad para empresas de todos los tamaños, con modelos disponibles en plataformas como AWS Marketplace y Liquid Playground.
¿Qué es Liquid AI?
Liquid AI, una empresa derivada del MIT, desarrolla modelos de IA generativa basados en una arquitectura fundamentalmente diferente a la de la IA tradicional basada en transformadores: los GPT.
La empresa emergente tiene cuatro cofundadores: Ramin Hasani, Mathias Lechner, Alexander Amini y Daniela Rus. Todos ellos tienen una destacada trayectoria en la investigación de la IA y el aprendizaje automático (ML).
Cofundadores de Liquid AI
- Daniela Rus: Cofundadora y directora de Liquid AI, profesora de Ingeniería Eléctrica e Informática y directora del Laboratorio de Informática e Inteligencia Artificial (CSAIL) del MIT. Los intereses de investigación de Rus se centran en la robótica, la informática móvil y la ciencia de datos.
- Ramin Hasani: Cofundador y director ejecutivo de Liquid AI e investigador afiliado de aprendizaje automático en el CSAIL. La investigación de Ramin se centra en el aprendizaje profundo y la toma de decisiones en sistemas dinámicos complejos.
- Mathias Lechner: Cofundador y director de tecnología de Liquid AI e investigador afiliado en el CSAIL. Lechner se centra en el desarrollo de modelos de aprendizaje automático sólidos y fiables.
- Alexander Amini: cofundador y director científico de Liquid AI e investigador postdoctoral en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL). Amini dirige la investigación para desarrollar la ciencia y la ingeniería de la autonomía y sus aplicaciones para la toma de decisiones segura de los agentes autónomos.
Investigación pionera detrás de Liquid AI: ¿el comienzo de una nueva IA?
¿Qué es una red neuronal líquida?
Una red neuronal líquida es una clase de sistemas de aprendizaje automático inspirados en el cerebro y diseñados para seguir siendo adaptables y robustos incluso después del entrenamiento inicial. Según Liquid AI, son:
«Aproximadores universales, sistemas expresivos de aprendizaje automático en tiempo continuo para datos secuenciales, eficientes en cuanto a parámetros para el aprendizaje de nuevas habilidades, causales e interpretables, y cuando se linealizan, pueden modelar eficientemente dependencias a muy largo plazo en datos secuenciales».
Pero, ¿en qué se diferencian exactamente las redes neuronales líquidas de los modelos tradicionales de IA?
Características clave de las redes neuronales líquidas:
- Arquitectura dinámica: Las redes neuronales líquidas tienen una estructura flexible y «fluida», que se adapta a medida que procesan nuevos datos.
- Aprendizaje en tiempo real: Pueden ajustar sus parámetros en tiempo real, a diferencia de los modelos tradicionales de IA, que tienen pesos y conexiones fijos una vez entrenados.
- Adaptabilidad: Las redes líquidas son mejores para manejar situaciones cambiantes y datos de series temporales.
- Interpretabilidad: Las redes líquidas son más pequeñas y simples, lo que las hace más fáciles de entender que los modelos tradicionales.
- Eficiencia computacional: Las redes líquidas pueden trabajar con menos parámetros, lo que requiere menos recursos computacionales.
En pocas palabras, cuantos menos parámetros, menos potencia informática se necesita para entrenar y ejecutar el modelo. Esto podría hacer que la arquitectura de redes neuronales líquidas sea atractiva para un mayor desarrollo de la IA.
De LNN a LFM: ¿Qué es un modelo de base líquida?
Más adelante, el equipo introdujo los modelos de base líquida (LFM), una nueva generación de modelos de IA generativa que logran un rendimiento avanzado al tiempo que mantienen una huella de memoria más pequeña y una inferencia más eficiente.
El 20 de enero de 2025, lanzó un nuevo modelo, LFM-7B, el «mejor modelo de lenguaje de su clase en inglés, árabe y japonés», diseñado para ser el «sustrato para el chat empresarial privado, el código, el seguimiento rápido de instrucciones y los flujos de trabajo agénticos».
Al destacar las capacidades clave del 7B, Liquid AI mencionó lo siguiente:
- LFM-B7, que mantiene un conocimiento y razonamiento expansivos, está optimizado para el chat de empresas privadas, la codificación, el seguimiento rápido de instrucciones y los flujos de trabajo de agentes.
- LFM-7B tiene una huella de memoria mínima en comparación con otras arquitecturas.
- Supera a otros modelos de su clase de tamaño.
Hablando de la eficiencia de la memoria, la empresa destacó varias características clave, como la comprensión de contextos largos, la inferencia energéticamente eficiente y los despliegues de alto rendimiento en dispositivos locales. Dijeron:
«En consecuencia, LFM-7B aumenta significativamente el valor para los usuarios finales en aplicaciones como el chat empresarial privado, la generación segura de código, el seguimiento rápido de instrucciones, el análisis de documentos largos, los asistentes de IA energéticamente eficientes en el dispositivo y los flujos de trabajo agenticos de varios pasos».
Arquitectura STAR
Otra parte sustancial de la innovación de Liquid AI que merece una mención especial es una arquitectura Scalable Transformer Alternative Representations (STAR), que tiene como objetivo aumentar la eficiencia y la escalabilidad de la IA.
Según Liquid AI, una nueva arquitectura de modelo STAR eclipsa a Transformers. Como referencia, Transformer es la tecnología que hay detrás de la mayoría de los modelos actuales de IA generativa, introducida por investigadores de Google en 2017.
Excited to unveil STAR: Synthesis of Tailored Architectures! 🌟
We develop an evolutionary algorithm to automate neural architecture design, optimizing for quality, size, and latency — tailored to desired metrics & hardware specs.
Synthesized models outperform Transformers and… pic.twitter.com/k5A8wgiN08
— Alexander Amini (@xanamini) December 2, 2024
Acciones de Liquid AI: ¿se puede invertir en Liquid AI?
No, Liquid AI es una empresa privada sin acciones disponibles públicamente para su negociación.
A pesar de algunos rumores que circulan sobre una posible oferta pública inicial, la empresa no ha hecho ningún anuncio oficial sobre planes de cotizar en bolsa hasta ahora.
Financiación de Liquid AI: 297 millones de dólares
Liquid AI ha recaudado una financiación total de 297 millones de dólares en dos rondas.
La última ronda de financiación de serie A de 250 millones de dólares, liderada por AMD, líder en el mercado de GPU de IA, permitirá a la empresa acelerar el despliegue de sus modelos en diversos escenarios de la vida real en telecomunicaciones, servicios financieros, comercio electrónico y biotecnología.
Liquid AI (@LiquidAI_) has raised $250 million in a Series A round led by AMD (@AMD) at a $2.3 billion valuation. Liquid AI (@LiquidAI_), Cambridge, Massachusetts, United States, was founded in 2023 by Alexander Amini (@xanamini), Daniela Rus, Mathias Lechner (@mlech26l), and… pic.twitter.com/05f9iDQoNR
— Silicon Valley Investclub (@Investclubsv) December 16, 2024
Un año antes, la empresa emergente obtuvo 46,6 millones de dólares en una ronda de financiación inicial.
Valoración de Liquid AI: 2300 millones de dólares
Liquid AI ganó protagonismo como una de las empresas emergentes de investigación en IA más innovadoras. Su última valoración de alrededor de 2300 millones de dólares la impulsó a los mejores unicornios de IA.
¿Cuál es el siguiente paso?
De cara al futuro, Liquid AI tiene planes sólidos. La última ronda de financiación permitirá al equipo ampliar sus capacidades de investigación, ingeniería y operativas y centrarse en hacer que sus modelos de IA sean accesibles para empresas de todos los tamaños.
Ramin Hasani, director general y cofundador de Liquid AI, dijo en un evento exclusivo del MIT:
«Nuestros modelos de base líquida elevan las leyes de escalado para sistemas de IA de propósito general a cualquier escala y para cualquier modalidad de datos. Nuestra primera serie de LFM de lenguaje logra un rendimiento de vanguardia a cualquier escala, manteniendo al mismo tiempo una pequeña huella de memoria en el dispositivo. Esto abre nuevas posibilidades para aplicaciones de IA locales en tiempo real, permitiendo a nuestros clientes empresariales aprovechar la IA sin las limitaciones de una fuerte dependencia de la nube o de amplios requisitos de memoria».
Hoy en día, los usuarios ya pueden probar los modelos de base líquida (LFM) de la empresa en AWS Marketplace.
Starting today, you can try out our Liquid Foundation models (LFMs) on @awscloud AWS Marketplace, launched at #reinvent2024
If you like them, get in touch with us!
We are excited to hearing your feedback on LFMs! Also get ready for a couple of small and big product updates in… pic.twitter.com/RvTsYR0nYe
— Liquid AI (@LiquidAI_) December 4, 2024
Los LFM también están disponibles en Liquid Playground, Lambda (Chat UI y API), Perplexity Labs y Cerebras Inference. Según el sitio web de la empresa, la pila LFM está optimizada para hardware NVIDIA, AMD, Qualcomm, Cerebras y Apple.
Conclusión
Para terminar, citamos a Daniela Rus, directora de Liquid AI: «La IA actual tiene un techo… No nos conformemos con la oferta actual».
MIT CSAIL Director Daniela Rus @TEDTalks: How AI will step off the screen and into the real world. https://t.co/NkuODF5MNf pic.twitter.com/KAZ6u8o8z9
— MIT CSAIL (@MIT_CSAIL) April 19, 2024
Aún está por ver si Liquid AI cumplirá su promesa de «desplegar soluciones de vanguardia basadas en IA que estén disponibles para todos» e integrar la IA a la perfección en todas las empresas. Por ahora, están avanzando progresivamente.
Preguntas frecuentes
¿Quién es el Director General de Liquid AI?
¿Cuánto vale Liquid AI?
¿Cuál es el último modelo de Liquid AI?
Referencias
- Liquid AI: A New Generation of AI Models from First Principles (Liquid)
- We raised $250M to scale capable and efficient general-purpose AI (Liquid)
- From Liquid Neural Networks to Liquid Foundation Models (Liquid)
- Liquid Foundation Models: Our First Series of Generative AI Models (Liquid)
- Liquid AI on X (X)
- Liquid AI’s new STAR model architecture outshines Transformer efficiency | Liquid AI (Liquid)
- Liquid AI to Unveil First Products Built on Liquid Foundation Models (LFMs) at Exclusive MIT Event | Liquid AI (Liquid)