Latencia

Fiabilidad

¿Qué significa latencia?

La latencia es un retraso percibido o real en el tiempo de respuesta.

En redes, la latencia describe el retraso en el tiempo que tarda un paquete de datos en viajar de un nodo de red a otro. El término también se utiliza para describir los retrasos que pueden producirse cuando los datos se mueven entre la memoria RAM de un dispositivo informático y su procesador.

Una alta latencia crea cuellos de botella y se asocia a una baja calidad de servicio (QoS), fluctuaciones y una mala experiencia de usuario (UX). El impacto de la latencia puede ser temporal o persistente en función del origen de los retrasos.

La latencia en internet suele medirse con una herramienta de red llamada Ping o un comando de diagnóstico llamado traceroute. Para minimizar la latencia en el rendimiento de las aplicaciones, los desarrolladores pueden utilizar motores de caché y búferes.

Definición de latencia

En la comunicación de datos, las redes digitales y las redes de conmutación de paquetes, la latencia se mide de dos formas: viaje unidireccional y viaje de ida y vuelta.

La latencia unidireccional se mide contando el tiempo total que tarda un paquete en viajar desde su origen hasta su destino. La latencia de ida y vuelta se mide sumando el tiempo que tarda el paquete en volver al origen.

A diferencia de la latencia unidireccional, la latencia de ida y vuelta excluye siempre el tiempo de procesamiento en el punto de destino.

Causas de la latencia

En la transmisión por red, intervienen en la latencia los cuatro elementos siguientes:

  1. Retraso en el almacenamiento: Los retrasos pueden introducirse al leer o escribir en diferentes bloques de memoria.
  2. Procesamiento del dispositivo: La latencia puede introducirse cada vez que una pasarela tarda en examinar y modificar la cabecera de un paquete.
  3. Transmisión: Hay muchos tipos de medios de transmisión y todos tienen limitaciones. Los retrasos en la transmisión suelen depender del tamaño del paquete; los paquetes más pequeños tardan menos en llegar a su destino que los más grandes.
  4. Propagación: Un paquete tarda tiempo en viajar de un nodo a otro, incluso cuando los paquetes viajan a la velocidad de la luz.

Latencia, ancho de banda y rendimiento

Latencia, ancho de banda y rendimiento se utilizan a veces como sinónimos, pero los tres términos tienen significados diferentes en las redes. Para entender las diferencias, imagina paquetes de red viajando por una tubería física.

  • El ancho de banda describe cuántos paquetes pueden viajar por la misma tubería a la vez.
  • La latencia describe la rapidez con que los paquetes viajan por la tubería.
  • El rendimiento describe el número de paquetes que pueden viajar con éxito a través de la tubería en un periodo de tiempo determinado.

Latencia de la RAM

La latencia de la memoria de acceso aleatorio (latencia RAM) se refiere al retraso que se produce en la transmisión de datos cuando éstos se mueven entre la RAM y el procesador de un dispositivo.

La latencia de la RAM se puede ajustar manualmente utilizando menos ciclos de reloj del bus de memoria . Acelerar la memoria no es necesario para la mayoría de los usuarios, pero puede ser útil para los jugadores que prefieren overclockear sus sistemas.

Temas relacionados

Margaret Rouse
Technology Expert
Margaret Rouse
Experta en tecnología

Margaret Rouse es una galardonada escritora técnica y profesora conocida por su habilidad para explicar temas técnicos complejos a una audiencia de negocios no técnica. Durante los últimos veinte años, sus explicaciones han aparecido en sitios web de TechTarget y ha sido citada como autoridad en artículos del New York Times, Time Magazine, USA Today, ZDNet, PC Magazine y Discovery Magazine. La idea de diversión de Margaret es ayudar a profesionales de TI y negocios a aprender a hablar los idiomas altamente especializados de cada uno. Si tienes una sugerencia para una nueva definición o cómo mejorar una explicación técnica,…