Edge Computing abre vía para las necesidades de los centros de datos

Fiabilidad
Resumen

Cada vez más empresas combinan la computación de borde y el procesamiento centralizado en centros de datos en un modelo híbrido para hacer frente a los retos de las tecnologías intensivas en datos. Los líderes del sector exploran cómo la computación de borde está ampliando su alcance, especialmente a medida que crece la demanda de tareas equipadas con IA.

La aparición de tecnologías con un uso intensivo de datos, como la realidad virtual y aumentada, los vehículos autónomos y la IA generativa, ha creado muchas innovaciones y oportunidades. Sin embargo, también ha aumentado la presión sobre la capacidad de los centros de datos existentes.

Como resultado, la infraestructura de TI ha cambiado a un modelo híbrido, que requiere una gestión sofisticada.

Sin embargo, con el auge de la inteligencia artificial en un entorno de computación periférica, el procesamiento de datos ya no se limita a los centros de datos centrales y las nubes centralizadas, afirma Pierluca Chiodelli, vicepresidente de tecnología de ingeniería para ofertas, estrategia y ejecución de computación periférica en Dell Technologies.

En su lugar, se produce más cerca de la fuente de datos, en el borde de la red, lo que permite la toma de decisiones en tiempo real y reduce la necesidad de transmitir cantidades masivas de datos a ubicaciones centralizadas.

“Como resultado, las organizaciones deben adoptar un enfoque muy refinado y avanzado para gestionar las cargas de trabajo y los datos de forma eficiente, segura e inteligente en todo su parque informático”, explica Chiodelli.

“Es esencial para aprovechar todo el potencial de las tecnologías de uso intensivo de datos, al tiempo que aborda los desafíos únicos que plantea la integración edge AI”.

En su nuevo estudio, “How Edge Computing Is Enabling the Future”, Schneider Electric encuestó a más de 1000 responsables de la toma de decisiones de TI y descubrió que el 49% nombró la gestión de la infraestructura de TI híbrida como su principal desafío de TI, y esperan que el edge computing mejore varios factores clave, como la velocidad, la seguridad de los datos y la resiliencia.

Según la encuesta, “el aumento del volumen de datos también ha impulsado un mayor procesamiento de los mismos, lo que supone una mayor presión sobre las emisiones de carbono y la sostenibilidad de las organizaciones”.

Los responsables de la toma de decisiones creen que el edge computing puede ayudar a impulsar la sostenibilidad y alcanzar los objetivos medioambientales, sociales y de gobierno corporativo de sus empresas.

En consecuencia, a medida que aumenten los datos organizativos y se incremente la complejidad de la infraestructura de TI, será fundamental que las organizaciones identifiquen cómo pueden realizar el seguimiento y la medición de la energía en el perímetro, afirma Carsten Baumann, director de iniciativas estratégicas y arquitecto de soluciones de Schneider Electric.

Baja latencia + más fiabilidad = tiempos de respuesta más rápidos

Edge computing permite que los datos se procesen cerca de la fuente de donde procede la información, lo que se traduce en un servicio más rápido y una mayor fiabilidad, lo que se traduce en mejores tiempos de respuesta cuando las empresas utilizan aplicaciones o programas, afirma Adonay Cervantes, CTO de campo global de CloudBlue, una plataforma de comercio multinivel.

“Y como estas aplicaciones operan en el borde de la red, funcionan mejor con baja latencia”, afirma.

Lee Ziliak, director de tecnología de campo y director general de arquitectura del proveedor de soluciones de TI SHI International, coincide con esta apreciación.

“El uso de datos en el perímetro también permite a una organización analizar y predecir a partir de datos de series temporales, aumentar las capacidades de supervisión, mejorar el rendimiento e impulsar un mayor valor mediante la extracción de nuevos puntos de datos”, explica. “Esto ahorra tiempo y dinero al agregar y conservar solo los datos importantes”.

Independientemente de la carga de trabajo, las empresas adoptan el edge computing porque algunas características del producto no pueden utilizar la nube debido a limitaciones prácticas o normativas, afirma David Kinney, arquitecto principal senior de la empresa de servicios de TI SPR.

Añade que las limitaciones prácticas más comunes que motivan la adopción del edge computing son cuando la comunicación entre el edge y la nube introduce demasiada latencia o cuando el medio de comunicación es lento o poco fiable.

“La latencia es una consideración fundamental para muchos sistemas que controlan maquinaria, como los sistemas anticolisión de los coches nuevos”, afirma Kinney. “Para muchos de estos sistemas, retrasar una acción incluso una fracción de segundo puede tener consecuencias catastróficas, por lo que los cálculos críticos deben realizarse en el borde”.

En cuanto a las restricciones normativas, afirma que esto suele plantearse en el caso de los dispositivos médicos. Los equipos médicos de los que depende la vida o la salud de un paciente, como una bomba de insulina, deben seguir funcionando aunque no puedan comunicarse con la nube.

Afrontar los retos de la tecnología de grandes volúmenes de datos

El Edge Computing también ayuda a reducir los costos asociados a la transferencia y almacenamiento de datos, según Saurabh Mishra, director global de gestión de productos IoT en SAS, proveedor de software de análisis.

“Se está creando una enorme cantidad de datos en el perímetro, y una buena parte de ellos está basada en sensores”, afirma. “Estos datos pueden ser redundantes y su valor efímero.

“En lugar de transferir y almacenar estos datos en la nube e incurrir en los costes asociados, a las organizaciones les conviene utilizar la computación de borde para procesar esos datos localmente en el borde y sólo transmitir los eventos clave de vuelta a la nube”.

Cada vez son más las empresas que combinan el edge compunting y el procesamiento centralizado en centros de datos en un modelo híbrido para afrontar los retos de las tecnologías de uso intensivo de datos, como la realidad aumentada, la realidad virtual, los vehículos autónomos y las aplicaciones avanzadas de IA, aplicaciones ávidas de datos que requieren un complejo análisis de datos en tiempo real para funcionar con éxito, afirma Bob Brauer, fundador y CEO de Interzoid, una consultora de usabilidad de datos.

Añade que un enfoque basado únicamente en la nube o un enfoque completamente centralizado introduciría una latencia significativa en el uso de estas tecnologías de uso intensivo de datos, lo que las haría menos eficaces, menos fiables y posiblemente incluso inseguras, especialmente en los casos de los vehículos autoconducidos o las aplicaciones sanitarias.

Sin embargo, según Brauer, la solución híbrida permite el procesamiento intensivo de datos, como la creación de modelos de IA, en un potente sistema interno en el que los costes de infraestructura suelen ser más baratos y más escalables que en entornos de infraestructura compartida en la nube.

“Luego, una vez que los modelos de IA están completos, son exhaustivos y están bien probados, pueden desplegarse en nodos de datos más ligeros en la periferia para aplicarlos y ponerlos a disposición de sistemas, dispositivos y vehículos mucho más cercanos geográficamente a los que utilizan estos modelos”, afirma.

De este modo, las organizaciones pueden tomar decisiones instantáneas sin tener que depender de la comunicación con servidores centralizados situados físicamente en otro lugar del mundo. Según Brauer, este enfoque reduce drásticamente el riesgo de latencia sin sacrificar la calidad de los modelos centrales de IA.

Damien Boudaliez, vicepresidente sénior y responsable global de ingeniería de soluciones de datos en FactSet, una empresa de datos y software financieros, describe cómo lel edge compunting ayuda a su empresa a operar de forma más eficiente.

“El viaje a la nube de la planta de tickers de FactSet tenía como objetivo minimizar la latencia en la distribución en tiempo real de datos financieros”, afirma. “Utilizar la computación de borde (Edge computing) nos permite colocar los datos más cerca de los clientes globales, optimizando así el rendimiento, especialmente en regiones como Asia, donde las distancias de mercado presentan desafíos.”

Además, la computación de borde complementa el modelo de nube híbrida de FactSet al permitir la elección.

“Podemos utilizar recursos locales para tareas informáticas pesadas y predecibles y la nube para necesidades más dinámicas y sensibles a la ubicación”, afirma Boudaliez. “La estrategia mejora el rendimiento tanto de nuestros clientes externos como de los equipos internos. Al situar los recursos informáticos más cerca de los clientes y de nuestras oficinas globales, minimizamos la latencia y maximizamos la eficiencia.”

Conclusión

A medida que la adopción de la computación de borde continúa expandiéndose en todas las industrias, también lo hacen las complejidades y demandas de la gestión de las operaciones de borde, dice Chiodelli de Dell.

“El entorno periférico está intrínsecamente distribuido, lo que plantea a las organizaciones el doble reto de querer recopilar y proteger los datos en su origen y, al mismo tiempo, tener que lidiar con una experiencia limitada en TI”, afirma.

Según Chiodelli, esta complejidad se extiende a la gestión y la seguridad de los diversos despliegues de borde a través de muchos dispositivos y ubicaciones. Las organizaciones necesitan un enfoque racionalizado para supervisar y proteger sus extensos ecosistemas de dispositivos y aplicaciones periféricos.

Aunque los modelos que emplean servidores periféricos proporcionan flexibilidad y control, este enfoque no está exento de consideraciones esenciales, concretamente la gestión de la tecnología en el perímetro, afirma Kelly Malone, directora de negocio de Taqtile, una empresa de software de realidad aumentada.

“Los dispositivos y servidores en el perímetro deben actualizarse, sincronizarse y gestionarse, lo que puede resultar complicado ya que estos equipos no están, por definición del enfoque de perímetro, ubicados centralmente”, afirma Malone.

Y a medida que las empresas sigan sumergiéndose en las tecnologías metaversales, que les permiten colaborar a nuevos niveles y aportar más eficiencia que nunca a los trabajadores, necesitarán adoptar más tecnología de borde para gestionar la cantidad de computación necesaria para tener una baja latencia y mejorar el rendimiento“, afirma Michael McNerney, vicepresidente de seguridad de redes de la empresa tecnológica Supermicro.

“No sólo se requiere una latencia más baja para tomar decisiones en el borde, sino que se necesita menos ancho de banda, por lo que las empresas pueden manejar más dispositivos con el mismo ancho de banda”, afirma.

Sin la tecnología de borde, los dispositivos que operan en el borde sufrirían problemas de latencia, causarían cuellos de botella en las redes de las empresas y otros retos relacionados con el procesamiento, afirma Sharad Varshney, CEO de OvalEdge, una consultora de gobierno de datos.

“Sin embargo, es importante recordar que el edge computing es un marco que requiere cambios culturales internos si se quiere que funcione en la organización”, añade.

“Más allá de esto, el edge computing es una de las muchas soluciones que deberías estudiar a la hora de racionalizar el uso de los datos en tu organización”.

Temas relacionados

Linda Rosencrance
Technology journalist
Linda Rosencrance
Editora

Linda Rosencrance es una escritora, editora y autora independiente en el área de Boston. Rosencrance cuenta con más de 30 años de experiencia como reportera de investigación, escribiendo para diversos periódicos en el área metropolitana de Boston. Ha escrito sobre tecnología de la información desde 1999. Sus artículos han aparecido en publicaciones como MSDynamicsworld.com, TechTarget, TechBeacon, IoT World Today, Computerworld, revista CIO, entre otros. Rosencrance fue editora de un sitio de noticias de tecnología y gestionó y editó un blog dedicado a la analítica de datos. También es autora de documentos técnicos, estudios de caso, libros electrónicos y publicaciones en…