La colaboración entre Google y NVIDIA: El próximo nivel de la IA

Fiabilidad
Resumen

La Inteligencia Artificial -de una forma que todo el mundo pueda utilizar- se está acelerando, y Google y NVidia nos están acercando mucho más. Sigue leyendo para conocer una colaboración que merece la pena seguir de cerca.

La carrera para satisfacer las demandas globales de IA está en marcha, con empresas líderes como OpenAI, Microsoft, Amazon, IBM, NVIDIA, Google y otras aumentando sus recursos de hardware y software. El objetivo final es sencillo. Eliminar las barreras tecnológicas y técnicas que limitan el crecimiento de la inteligencia artificial (IA) ofreciendo a cualquier persona del mundo acceso a la tecnología de IA más avanzada.

El 7 de noviembre, Techopedia asistió al evento de Google «Better together: NVIDIA & Google Cloud on G2 VMs powered by NVIDIA L4 Tensor core GPUs”.

Durante el evento, Dave Salvator, Director de productos de computación acelerada de NVIDIA, y Kevin Chung, COO de Google Writer, hablaron sobre la asociación y la nueva tecnología de NVIDIA integrada en Google Cloud.

El auge de la infraestructura de IA como servicio en Google Cloud

Las primeras tecnologías de IA generativa, como ChatGPT, Bing Chat o Google Bard, fueron posibles gracias a los ilimitados recursos informáticos y de software de las principales empresas tecnológicas. En la actualidad, estos recursos son prácticamente inaccesibles para la mayoría de las empresas.

A medida que la IA se generaliza y las empresas y organizaciones de todo el mundo tratan de aprovechar la tecnología, está surgiendo un nuevo movimiento global: La infraestructura de IA como servicio. Con similitudes compartidas con la migración a la nube digital internacional de la era de la pandemia, se espera que esta tendencia transforme el mundo y perturbe todas las industrias.

Bajo los modelos de IA-infraestructura-como-servicio, la idea es dar a los usuarios acceso a todo lo que necesitan para experimentar, desarrollar, probar, personalizar, desplegar y mantener su tecnología de IA.

A principios de 2023, Google fue la primera nube en lanzar las GPU con núcleo NVIDIA L4 Tensor. Desde entonces, han estado trabajando para ampliar las experiencias de IA en la nube a través de los servicios de Google Cloud.

La alianza entre Google y NVIDIA puede acelerar potencialmente la IA y mejorar su rendimiento, al tiempo que ayuda a empresas y desarrolladores a reducir costes.

La IA al servicio del ADN de Google

Empresas líderes como Volkswagen, Snap, MidJourney y Workspot ya están utilizando las soluciones de IA de Google-NVIDIA para impulsar diferentes resultados empresariales.

Salvator de NVIDIA explicó lo que se necesita para adoptar el poder transformador de la IA en todos los sectores.

“Para construir estas cosas (sistemas de IA) se necesita una combinación de hardware y software muy preformada, así como la capacidad y herramientas que faciliten el trabajo de los desarrolladores que construyen estos modelos de IA.”

NVIDIA trabaja en estrecha colaboración con Google para satisfacer estas demandas. «No sólo se obtiene un gran rendimiento de la plataforma, sino que se obtiene de una forma que facilita su uso», añade Salvator.

Salvator explicó que NVIDIA proporciona a Google su hardware más reciente y la experiencia de la compañía como centro de datos. Muchos servicios de plataforma, software, marcos de aplicaciones y herramientas de NVIDIA están ahora integrados en Google Cloud, lo que hace que la IA sea más accesible y fácil de usar.

Las GPU NVIDIA L4 Tensor Core

Las GPU NVIDIA L4 Tensor Core se lanzaron a principios de 2023. La L4 es la cuarta generación de NVIDIA Tensor Core. Con cuatro decodificadores de vídeo, 2 codificadores de vídeo y compatibilidad con AVI, está diseñada para la aceleración avanzada de la IA de vídeo y visión y la aceleración de cargas de trabajo de IA. Ofrece hasta 120 veces más rendimiento de vídeo de IA que las implementaciones de solo CPU.

«Estamos muy satisfechos de trabajar con Google y de que sea el primer proveedor de servicios en la nube que introduce este producto en el mercado como servicio en la nube», afirma Salvator.

La L4 de NVIDIA está integrada en Vertex y en el motor Google Kubernetes Engine (GKE).

Google Writer ya funciona con GPU L4 de NVIDIA

Uno de los productos de Google que ahora funciona con GPU L4 de NVIDIA es Writer.

A primera vista, la aplicación Writer no parece gran cosa. Sin embargo, es una potente herramienta para las empresas. «Writer es una plataforma completa de IA generativa creada para las empresas», afirmó Chung en el evento de Google.

Writer ofrece a las empresas una solución «lista para usar» para trabajar con IA. La tecnología aprovecha grandes modelos de lenguaje (LLM), procesadores de lenguaje natural (NLP) y aprendizaje automático (ML) en máquinas virtuales G2 y actualmente la utilizan más de 200 empresas.

En el evento, Chung reveló que, tras hablar con más de 1.000 ejecutivos en el último mes, había encontrado varios temas comunes.

La mayoría de los ejecutivos se fijan en la IA generativa y creen que tienen varios casos de uso para ella. Sin embargo, se preguntan por dónde empezar.

Según Chung, los ejecutivos están de acuerdo en que crear IA desde cero es extremadamente complejo. También les preocupa el tiempo que se tarda en crear e implantar soluciones de IA. Quieren un retorno de la inversión más rápido. Chung aseguró que Writer de Google es la solución a todos estos problemas comunes.

«Proporcionamos nuestros propios LLM, que son precisos, seguros y rápidos de desplegar», afirmó Chung.

Aunque la tecnología de Writer es sofisticada, en principio el concepto de la aplicación es bastante sencillo. Cualquier empresa, organización o desarrollador puede utilizar la aplicación y crear su propia base de datos de conocimientos. Writer admite todo tipo de datos: audio, gráficos, hojas de cálculo, SQL, vídeos o texto.

Una vez que el grafo de conocimiento se superpone a la IA de Writer, los usuarios pueden recurrir a marcos listos para usar disponibles a través de una sencilla interfaz de usuario para hacer preguntas a la IA, investigar, hacer que analice datos, crear contenidos y mucho más.

La interfaz de usuario minimalista y no técnica de Writer permite a las empresas desplegar una aplicación de IA en su negocio que cualquiera puede utilizar, incluso aquellos sin conocimientos técnicos. Además, la aplicación presta especial atención a las directrices de estilo de la marca y a los guardarraíles, la precisión, la seguridad y el cumplimiento.

Chung explicó que las empresas ya utilizan Writer para generar documentos, crear asistentes de IA, redactar boletines, correos electrónicos y artículos de liderazgo intelectual.

Writer también puede utilizarse para crear chatbots virtuales que apoyen a los equipos de ventas o marketing y puede acelerar y simplificar el complejo proceso de incorporación de trabajadores que necesitan familiarizarse rápidamente con grandes bases de datos, documentos e información.

Sin duda, al ofrecer una solución de pila completa, Writer acorta los tiempos de producción de IA de años a tan solo días, con lo que los costos se reducen drásticamente. En sus inicios, Writer trabajaba con 120 millones de parámetros. Chung dio detalles sobre la evolución de la tecnología.

“Ahora estamos por encima de los 40.000 millones de parámetros. Writer también genera 9.000 palabras por segundo con más de un billón de llamadas a la API al mes. Funciona a la perfección con las GPU de Nvidia, lo que nos permite realizar cálculos muy pesados sin ningún contratiempo”.

Entorno de integración Google-NVIDIA: Especificaciones técnicas

Pero las integraciones de NVIDIA en el entorno de Google Cloud no terminan con Writer. En el evento de Google, Salvator paseó a los asistentes por la cartera de productos Google-NVIDIA.

Con las opciones de implantación de GPU, los usuarios pueden acceder a lo siguiente:

  • Anthos sobre BareMetal, VMware: Crear y gestionar clusters Kubernetes con GPU NVIDIA en la infraestructura existente con servidores VMware o BareMetal.
  • Google Distributed Cloud Hosted: Acelerar las cargas de trabajo sensibles que requieren soberanía digital en una infraestructura local totalmente gestionada con GPU NVIDIA.
  • Google Distributed Cloud Edge: Acelerar casos de uso de IA de misión crítica con GPUS NVIDIA en ubicaciones Google Edge, Telco Edge o Customer Edge.
  • Dispositivo GDP Edge: Acelerar el procesamiento de datos, el análisis y el procesamiento con NVIDIA GPUS en ubicaciones de borde remotas.

Como plataforma como servicio, la oferta de Google-NVIDIA incluye:

  • Motor Google Kubernetes (GKE): Permite a los usuarios crear, gestionar y escalar automáticamente clusters K8s con GPUs NVIDIA. Ofrece soporte para funciones de uso compartido de GPU y contenedores NGC de NVIDIA.
  • Vertex AI: da acceso al último software de IA de NVIDIA, como Triton, Merlin y MONAI, dentro de una plataforma MLOPs unificada para crear, implantar y escalar modelos de ML en producción.
  • Flujo de datos: Aprovecha NVIDIA TensorRT y las GPU para acelerar la inferencia con pipelines de extremo a extremo sobre datos en flujo.
  • Dataproc: Aprovecha RAPIDs Accelerator para Apache Spark para acelerar los pipelines de datos basados en Spark SQL/DF sin cambios en el código.

Los beneficios de la innovación en IA en la nube

Salvator también habló de las ventajas de costo-rendimiento de aprovechar la innovación Google-NVIDIA.

“Si lo piensas, estás construyendo el modelo en la nube, muchas veces estás pagando por tu instancia por horas. Si puedes hacer tu trabajo más rápido, o hacer más trabajo en el mismo tiempo, eso se traduce en coste”.

La última tecnología de NVIDIA en el entorno de Google Cloud proporciona a los usuarios acceso a más potencia de cálculo, lo que les permite implantar sus aplicaciones con mayor rapidez, acelerar el tiempo de comercialización y obtener valor del producto más rápidamente.

Un hardware y un software de IA más potentes y eficientes también significa que las empresas pueden utilizar menos recursos para obtener el mismo rendimiento.

“Se trata de una ventaja fundamental que se obtiene en Google Cloud Platform, que puede adoptar la forma de utilizar menos GPU y, digamos, hacer el mismo trabajo, o bien utilizar el mismo número de GPU y hacer más trabajo.”

NVIDIA AI Enterprise a través de Google Cloud

Otro servicio al que ahora pueden acceder los usuarios de Google Cloud es NVIDIA AI Enterprise. El servicio incluye 50 frameworks, modelos preentrenados y herramientas de desarrollo, que pueden ayudar a acelerar y simplificar la producción y despliegue de IA.

NVIDIA AI Enterprise también ofrece asistencia 24 horas al día, 7 días a la semana. “Da a las empresas la confianza para crear aplicaciones y saber que pueden obtener ayuda para crearlas, implantarlas y mantenerlas en funcionamiento 24 horas al día, 7 días a la semana”, afirma Salvator.

NVIDIA AI Enterprise también ofrece a los usuarios acceso a aplicaciones de referencia preempaquetadas para automatizar rápidamente las operaciones empresariales.

Entre ellas se incluyen:

  • Chatbots de base de conocimientos de IA generativa.
  • Asistentes virtuales inteligentes.
  • Transcripción de audio con IA.
  • Huella digital y detección de amenazas.
  • Detección de phishing mediante IA.
  • Optimización de rutas de vehículos y robots con IA.
  • Recomendaciones personalizadas de predicción de productos.

En resumen: La inevitable transformación de las infraestructuras y servicios digitales globales

La integración de hardware, software y servicios de Google y NVIDIA es impresionante y puede beneficiar enormemente a los usuarios. Reducen las barreras técnicas y los costos iniciales, aumentan el acceso a la tecnología y pueden aumentar el rendimiento, al tiempo que ofrecen seguridad y cumplimiento de vanguardia.

Sin embargo, esta asociación no es un caso aislado. Forma parte de un movimiento mayor. Debemos esperar que la infraestructura como servicio de IA se convierta en la norma muy pronto.

Todos los grandes proveedores de la nube ya ofrecen servicios similares, o trabajan para desplegarlos para sus usuarios. Como ya se ha dicho, las infraestructuras globales en la nube, en los bordes y en las instalaciones deben reconstruirse para satisfacer las demandas informáticas de la IA. Y la infraestructura como servicio de IA responde a esta inevitable llamada de la IA.

El movimiento de la IA-infraestructura-como-servicio, que da un nuevo soplo de vida al sector tecnológico, seguirá escalando globalmente a un ritmo frenético, a medida que las empresas busquen soluciones de IA rentables, ágiles, rápidas y fáciles de usar. ¿El objetivo? Poner la IA al alcance de cualquiera.

Temas relacionados

Artículos relacionados

Sam Cooling
Crypto and Blockchain Writer
Sam Cooling
Editor

Sam es un periodista de tecnología con un enfoque en noticias del mercado de criptomonedas e inteligencia artificial, con sede en Londres. Su trabajo ha sido publicado en Yahoo News, Yahoo Finance, Coin Rivet, CryptoNews.com, Business2Community y Techopedia. Con una Maestría en Gestión del Desarrollo de la London School of Economics, Sam ha trabajado previamente como Consultor de Tecnología de Datos para la Fundación Fairtrade y como Investigador Asociado Junior para la Academia de Defensa del Reino Unido. Ha estado operando activamente con criptomonedas desde 2020, contribuyendo de manera activa a proyectos como Fetch.ai y Landshare.io. La pasión de Sam…